最近は大学でのほとんどの会議がオンラインになりました。ウェブ会議であっても、対面と同様に、くつろいでいたり緊張が高まったりといった変化を感じ取ることがあります。自分が感じているそういった会議の雰囲気は、科学的に客観的に記述することが可能なものでしょうか。参加者の感情の変化のリアルタイムモニタリングに関する現在の技術動向をまとめました。以下、GeminiのDeep Researchのレポートです。
目次
- 1 オンライン会議における集団雰囲気の科学的記述とリアルタイム情動モニタリングの技術動向:アフェクティブ・コンピューティングの最前線
オンライン会議における集団雰囲気の科学的記述とリアルタイム情動モニタリングの技術動向:アフェクティブ・コンピューティングの最前線
デジタル空間における「場の空気」の変容と計測の必要性
物理的な距離を超えて人々を繋ぐオンライン会議システムは、現代の学術研究、教育、およびビジネスにおける不可欠な基盤となっている。しかし、対面でのコミュニケーションにおいて自然に共有されていた「場の空気」や「雰囲気」といった抽象的な概念は、デジタルインターフェースという物理的な制約を介することで、その伝達様式が根本的に変容している。大学での会議や講義において、参加者がリラックスしているのか、あるいは緊張が高まっているのかという微細な情動の変化を感じ取ることは、円滑な合意形成、心理的安全性の確保、そして学習効果の向上において極めて重要である。
2025年から2026年にかけての技術動向によれば、リモートワークとハイブリッドワークの風景は、AIと自動化の急速な進展によって再定義されつつある 1。特に、生成AI(Generative AI)やエージェント型AI(Agentic AI)の普及に伴い、単なる音声と映像の伝達に留まらず、人間同士、あるいは人間と機械の間のインタラクションをより深く理解し、適応的な支援を行うモデルが登場している 2。本報告書では、オンライン会議における「雰囲気」を構成する多角的な要素を、最新のセンシング技術、同期現象の科学、産業界の実装事例、そして文化的・倫理的課題を通じて包括的に分析し、主観的な感覚がいかにして科学的・客観的な記述の対象となり得るかを論じる。
集団雰囲気の科学的定義:主観から客観への転換
「場の空気」や「雰囲気」という言葉は、従来、文学的あるいは心理学的なメタファーとして扱われてきた。しかし、計算科学およびアフェクティブ・コンピューティング(Affective Computing)の文脈では、これらは「集団的アフェクト(Group Affect)」、「集団雰囲気(Group Atmosphere)」、あるいは「社会的存在感(Social Presence)」という概念として再定義され、定量化の試みがなされている。
社会的存在感と集団の情動的気候
仮想的な作業グループにおける社会的な側面は、単なる情報のやり取りを超えた「コミュニティ感」や「つながりの質」を決定づける要因である 3。先行研究によれば、オンライン環境における社会的存在感は、チームワークの満足度を高め、最終的な知識獲得の成果を左右することが示されている 4。この雰囲気の醸成には、個人の気質、グループのダイナミクス、そして指導的立場にある者の介入という三つの要素が密接に関わっている 3。
特に、プロジェクトグループのリーダーのムードや行動は、グループ全体の感情的なトーン(Affective Tone)に直接的な影響を及ぼす 5。ポジティブな雰囲気は、メンバー間の自発的な協力行動を促進する強力な決定要因となる。従来、個人のムードが集団の雰囲気を決定すると考えられてきたが、近年の分析では、集団としての雰囲気が個人の協力意欲を媒介するより直接的な変数であることが明らかになっている 5。この「情動的気候」は、オンライン環境特有の「スウィフト・トラスト(迅速な信頼構築)」の成否を分ける鍵となる 5。
感情理論の計算機的実装とモデル化
アフェクティブ・コンピューティングの基盤となる感情理論には、主に二つの対立する枠組みが存在する。一つは、ポール・エクマンらに代表される「基本感情理論(Basic Emotion Theory)」であり、喜び、怒り、悲しみ、驚きといった特定の感情が生物学的に固定され、普遍的な顔の表情として表出されると仮定する 6。この理論は、分類対象が明確であるため、初期のAI感情認識モデルに広く採用されてきた。
対照的に、リサ・フェルドマン・バレットらが提唱する「構成主義理論(Constructionist Theory)」は、感情は固定的な出力ではなく、身体の内部信号、過去の経験、および状況的な文脈からその都度構築されるものであると説く 6。オンライン会議の雰囲気を解析する場合、参加者の単なる顔の動きだけでなく、発言の内容や周囲の状況といった文脈情報を統合する後者のアプローチが、より高い精度での「空気」の読み取りを可能にすると期待されている。また、ラッセル(1980)の円環モデル(Circumplex Model)は、感情を「価(Valence:正負)」と「覚醒度(Arousal:緊張・興奮)」の連続的な空間として捉え、きめ細やかな感情分析を可能にする 6。
| 概念 | 学術的定義・特徴 | 科学的指標の例 |
| 集団雰囲気 (Group Atmosphere) | グループ内の感情的な気候。協力や対立の土壌となる心理的環境。 | メンバー間の感情相関、発言トーンの均一性、協力行動の頻度。 |
| 社会的存在感 (Social Presence) | メディアを介して他者が「そこに実在する」と感じる度合い。 | 相互作用の頻度、非言語的記号の交換量、主観的親密度。 |
| 集団的エフェルベセンス (Collective Effervescence) | 共同体的な儀式や活動で生じる、自己を忘れるような一体感と興奮。 | 心拍数や脳波の同期率、共同作業のパフォーマンス。 |
| 心理的安全背 (Psychological Safety) | 対人関係のリスクをとっても安全であるという、チームに共有された信念。 | ターンテーキングの公平性、沈黙の質、否定的な意見の受容率。 |
3
インターパーソナル・シンクロニー:共鳴する身体と脳の記述
会議の雰囲気が「良い」と感じる時、あるいは「緊張感」が漂う時、参加者の間では生理的・行動的な同期現象、すなわち「インターパーソナル・シンクロニー(Interpersonal Synchrony)」が発生している。これは単なる個人の感情の集合ではなく、集団としてのダイナミクスを科学的に記述する上で最も有力な指標の一つである。
心拍同期と意思決定の質
最新の生理心理学研究によれば、集団が共同で問題解決に取り組む際、メンバー間の心拍リズムが同調する現象が確認されている。PNAS(米国科学アカデミー紀要)に掲載された研究では、非線形解析手法である多次元回帰定量化分析(MdRQA: Multidimensional Recurrence Quantification Analysis)を用いることで、議論中の心拍同期率が、そのグループが正しい合意に達する確率を70%以上の精度で予測できることが示された 9。この同期は、単なる発言時間の長さや主観的な満足度よりも高い精度でグループのパフォーマンスを説明する。
心拍同期は、相互のエンゲージメント(関与)の深さを反映するバイオマーカーであり、適応的な学習や効果的な情報共有を促進する役割を果たしている 9。一方で、過度な同期は「グループシンク(集団思考)」の罠に陥り、批判的な検討を阻害するリスクも孕んでいるため、最適な同期レベルの特定が現在の研究課題となっている 9。
脳対脳シンクロニーと「チーム・フロー」
神経科学の分野では、複数の参加者の脳活動を同時に計測する「EEGハイパースキャニング」技術により、チームが「クリック」している状態(一体感がある状態)の可視化が進んでいる 10。研究によれば、特定のチームメンバーが「同期ハブ」として機能し、開かれた質問を投げかけたり、声のトーンを模倣(ミラーリング)したりすることで、グループ全体の神経的なアライメントをオーケストレーションしていることが明らかになった 10。
このような脳活動の同期は、チームが共通の目標や理解を共有している際に高まり、自己申告によるアンケート調査では捉えきれないチームの成功要因を予測する 11。この状態は「集団フロー(Group Flow)」とも呼ばれ、個人の能力の総和を超える創造的な成果を生む土壌となる 8。
オンライン環境における同期の制約と可能性
オンライン会議では、固定されたカメラによる視野の制限や、匂い・周辺音といった感覚情報の欠如が、自然な同期現象を阻害する可能性がある 12。例えば、対面では自然に行われる身体的な距離感の調整が不可能であることが、社会的な不協和音を生む要因となり得る 12。しかし、ウェブ会議であっても、頷きの同期や発話リズムの同調といった「身体的引き込み」は発生し、これが他者への親近感や信頼を醸成することが確認されている 12。
非接触型生体計測:rPPGによる循環器系反応のリアルタイム可視化
会議の雰囲気、特に「緊張感」や「リラックス」を客観的に捉えるための最も強力な指標の一つが、心拍数や心拍変動(HRV)といった自律神経系の反応である。しかし、従来のウェアラブルデバイスの装着は大学の会議などの日常的な場面では非現実的であるため、カメラ映像から非接触で生理信号を抽出する「遠隔フォトプレチスモグラフィ(rPPG: remote Photoplethysmography)」技術が急速に発展している。
rPPGの物理的原理とメカニズム
rPPGは、心周期に伴う皮膚表面の微細な色変化(血流の拍動)を標準的なRGBカメラで捉える技術である 14。血液中のヘモグロビンは、周囲の皮膚組織とは異なる光吸収特性を持ち、特に緑色光(約550nm付近)を強く吸収する。心臓が拍動し、顔面の毛細血管に血液が流入すると、皮膚からの反射光強度が微弱に減少する。この強度の変動を時間軸に沿って解析することで、脈波(BVP: Blood Volume Pulse)を復元し、心拍数や心拍変動を推定することが可能になる 14。
最新の実装では、二色反射モデル(DRM: Dichromatic Reflection Model)に基づき、鏡面反射成分(ノイズ)と拡散反射成分(生理信号を含む成分)を分離する信号処理技術が用いられている 14。
実環境における技術的課題と高度な解決策
オンライン会議という制御されていない動的な環境下では、以下の要因が計測精度を著しく低下させる:
- 照明変動: 室内光のフリッカーや窓からの太陽光の変化。
- 頭部運動: 発言時の口の動きや、姿勢の変化。
- 肌の色調: メラニン色素の含有量による信号の減衰。
2025年から2026年にかけての技術動向では、これらの課題を克服するために、深層学習を用いたエンドツーエンドのモデルが主流となっている。具体的には、多タスク時間シフト畳み込みアテンションネットワーク(MTTS-CAN)や、時系列トランスフォーマーモデル(PhysFormer, rPPGViT)が導入され、照明変化や運動に対する頑健性が大幅に向上している 16。また、PulseFormerのようなモデルは、短い時間窓での連続的な心拍推定を実現し、感情の急激な変化(驚きや強い緊張)を捉えることが可能になっている 18。
rPPGの応用範囲と精神的健康の評価
rPPGから得られる情報は単なる心拍数に留まらない。血管の拍動の形状を詳細に解析することで、血圧の推定や、血管の硬さといった循環器系の健康指標も導出され始めている 19。さらに、これらの生理指標を覚醒度(Arousal)の客観的な代用指標とすることで、議論が白熱して参加者の緊張が高まっているのか、あるいは退屈して注意力が散漫になっているのかを、カメラ一つで「見える化」することが可能となる 20。
| 技術要素 | 具体的な手法・モデル | 特徴と利点 |
| ROI選択・追跡 | 顔ランドマーク検出、Haar cascade, 領域マスク生成 | 額や頬など、血流信号が豊かな部位を特定し、運動中も追跡する 16。 |
| ノイズ抑制 | 時間微分正規化、MST (Multi-Scale Spatio-Temporal) マップ | 照明変化による低周波ノイズを排除し、拍動成分を強調する 15。 |
| 拍動推定モデル | rPPGViT, MTTS-CAN, PulseFormer | 長距離の時空間的な依存関係を学習し、高精度な脈波を復元する 16。 |
| ポスト処理 | 複素チャープZ変換 (CZT), 適応的バンドパスフィルタ | 特定の心拍帯域にズームして周波数解析を行い、微細な変動を抽出する 18。 |
15
マルチモーダル情動認識:顔・音声・言語の三位一体
「場の空気」は単一の情報源から成るものではない。視覚的な表情、聴覚的な声のトーン、そして言語的な発言内容の三者が複雑に絡み合っている。現在の技術動向における核心は、これら複数のモダリティを統合して認識する「マルチモーダル情動認識(MER: Multimodal Emotion Recognition)」である 21。
視覚と音声の相補的なシナジー
顔表情認識(FER)はアフェクティブ・コンピューティングにおいて最も成熟した技術であり、深層畳み込みニューラルネットワーク(CNN)により、微細な表情の変化も検出可能である 6。しかし、会議のような社会的な文脈では、参加者は感情を抑制したり、取り繕ったりすることが多いため、表情だけでは本心を捉えきれない場合がある。
音声解析は、この「言葉の裏側」を読み取るための重要な補完となる。産業技術総合研究所(産総研)が公開した「いざなみ(IZANAMI)」および「くしなだ(KUSHINADA)」といったモデルは、音声の高さ、テンポ、抑揚(韻律情報)を解析し、喜び、悲しみ、怒り、驚きといった基本感情だけでなく、落ち着きや興奮度をリアルタイムで数値化する 23。例えば、「承知しました」という言葉が発せられた際、そのピッチが低く、話速が遅ければ、AIはそこに不満や消極的な態度を検出することができる。
文脈理解と会話内情動認識(MERC)
2025年の最新研究では、単発の発話認識を超えて、会話の流れ全体を考慮する「会話におけるマルチモーダル情動認識(MERC)」が注目されている。トランスフォーマーやグラフニューラルネットワーク(GNN)を組み合わせたモデル(例:MTG-ERC)は、話者間の依存関係や、長期間の文脈(Global Context)と短期間の感情の変化(Local Context)の両方を捉えることができる 24。
このアプローチにより、「前の発言によって誰が動揺したか」「議論がどの時点で紛糾し始めたか」といった、まさに「会議の空気の変遷」を時系列で追跡することが可能となる。
多様性の包摂と課題
マルチモーダルシステムは頑健性を高める一方で、計算コストの増大や、特定のモダリティ(例:カメラオフの参加者)の欠損への対応といった課題も抱えている 21。また、人種、性別、年齢による認識精度の格差(アルゴリズムのバイアス)を是正するための、より多様でバランスの取れたデータセットの構築が急務となっている 6。
産業界における実装:大手プラットフォームの機能とAIアシスタント
科学的な研究成果は、すでにオンライン会議プラットフォームやAIツールの機能として実装され、実用化の段階にある。これらのツールは、単なる録画や文字起こしを超えて、会議の「質」や「感情的なランドスケープ」を可視化する役割を担っている。
Zoom Revenue Accelerator:会話の質を数値化する
Zoomが提供する「Revenue Accelerator(ZRA)」は、営業現場の生産性向上を目的としているが、その会話解析機能は大学の会議の雰囲気測定にも応用可能な高度な指標を含んでいる 28。ZRAは以下の指標をリアルタイムおよび事後に算出する 29:
- Talk-Listen Ratio (発話・傾聴比率): 特定の人物が独占的に話していないか、参加者のエンゲージメントが保たれているかを分析する。
- Talking Speed (話速): 話し手の緊張や熱量を反映する。
- Filler Words (フィラー): 「あー」「えーと」といった言葉の頻度から、自信や準備状況を推定する。
- Patience (忍耐度): 相手が話し終わってから自分が話し始めるまでの「間」。議論の健全性や受容的な雰囲気を反映する。
さらに、2026年には「エージェント型フェデレーテッド・フレームワーク」を導入し、CRMやメール、過去の会議データを統合することで、感情の変化がなぜ起きたのかという「生きた文脈(Living Context)」をAIが理解し、リアルタイムでフィードバックを行う機能も予定されている 30。
Read.aiとOtter.ai:エンゲージメントの可視化
「Read.ai」は、Zoom、Teams、Google Meetのいずれでも動作するAI会議アシスタントであり、参加者の「エンゲージメントスコア」をリアルタイムで算出する 31。これは、参加者のインタラクション、リアクション、発話の積極性を統合したものであり、会議が盛り上がっているのか、あるいは停滞しているのかを一目で把握できる。また、「スピーカー・コーチ」機能は、発言の明瞭さや包摂性について話し手にリアルタイムでプロンプトを提示する 32。
一方、「Otter.ai」は会話型検索機能を強化しており、過去の膨大な会議記録から「特定のトピックについて議論が紛糾した瞬間の感情」を抽出するといった高度なリサーチを可能にしている 32。
| プラットフォーム / ツール | 主要な雰囲気・感情分析機能 | 2026年の将来展望 |
| Zoom Revenue Accelerator | 発話比率、話速、フィラー分析、センチメント推移。 | エージェント型AIによるリアルタイムの議論誘導。 |
| Read.ai | エンゲージメントスコア、感情ヒートマップ、コーチング。 | 組織全体の「インテリジェンス・レイヤー」として機能。 |
| Otter.ai | 感情タグ付き議事録、会話型AIチャット。 | クロスプラットフォームでの文脈に基づいたナレッジ共有。 |
| Microsoft Copilot | 文脈適応型の感情理解、アクションアイテムの自動抽出。 | 365エコシステム全体での情動的なワークフロー支援。 |
28
文化的文脈と日本独自の課題:マスクと「察し」の科学
日本における「場の空気」の読み取りは、欧米諸国とは異なる独自の文化的規範(ディスプレイルール)に基づいている。これを科学的に記述するためには、日本独自のコミュニケーション様式をモデルに組み込む必要がある。
マスク着用が感情認識に与える影響
日本社会において、マスクの着用は健康上の理由だけでなく、社会的な匿名性の確保や安心感を得るためのツールとして深く根付いている 35。2026年の最新研究によれば、マスクを着用した顔からの感情認識において、日本人は欧米人と比較して「目元」の情報をより重視し、情報の欠損を補完する能力が高いことが示された 35。
しかし、AIモデルにとっては、顔の下半分が隠れることは「怒り」の過大評価や「悲しみ」「恐怖」の認識率低下を招く要因となる 35。アフェクティブ・コンピューティングのシステムが日本の大学での会議を正確に記述するためには、マスク着用を前提とした認識アルゴリズムの調整が不可欠である。
「内集団優位性」と日本語の感情表現
感情のデコード(読み取り)には、自らの文化圏の人物に対してより高い認識精度を示す「内集団優位性(In-group advantage)」が存在する 36。日本人は、感情を公の場で露骨に表さない「抑制的」な傾向があるため、欧米のデータセットで学習したAIは、日本人の会議を「平坦で退屈」と誤解する可能性がある 6。
産総研が開発した「いざなみ」「くしなだ」のような日本語特有の韻律を捉えるモデルは、こうした「日本的な微細な情動」を捉えるための重要なステップである 23。これらは、日本語特有の「間」や、言葉のトーンに含まれる微妙なニュアンスを解析し、日本的な文脈での「場の空気」を記述することを可能にする。
倫理的ガバナンスと感情サーベイランスへの懸念
会議の雰囲気をリアルタイムでモニタリングする技術は、利便性の裏側で、プライバシーや倫理に関する深刻な課題を提起している。特に、参加者の知らないうちにその「内面」が数値化され、評価や人事、学業成績に繋がる可能性は、新たな監視社会(感情サーベイランス)への懸念を呼び起こしている。
感情データの法的保護とEU AI Act
EU AI Actなどの新たな法規制は、教育現場や職場における感情認識技術の使用を「高リスク」と分類し、厳格な透明性と人間による監視(Human-in-the-loop)を求めている 26。感情データは、身体的な生体情報(バイオメトリクス)以上に個人の尊厳に関わる機密情報であり、その収集には「データの尊厳(Data Dignity)」を尊重した、明確かつ詳細な同意手続きが必須となる 26。
心理的安全性の「サポートギャップ」
皮肉なことに、会議の雰囲気を良くするために導入されたモニタリングツールが、かえって参加者の緊張を高め、心理的安全性を損なう「監視のパラドックス」も指摘されている。研究によれば、心理的な苦痛を感じているユーザーは、他者に負担をかけることを避けるためにセルフ・レギュレーション(自己調節)を好む傾向がある 41。過度なモニタリングは、参加者が「正しく、元気に振る舞わなければならない」という強迫観念を生み出し、真の意味での「くつろぎ」を阻害するリスクがある 42。
2026年時点での倫理ガイドラインでは、AIを感情の「癒やし手(Healer)」ではなく、あくまで「助け手(Helper)」と位置づけ、人間による最終的な判断と介入を優先するハイブリッドなワークフローが推奨されている 42。
| 倫理的・法的リスク | 具体的な懸念事項 | 提唱されている対策 |
| 感情の誤分類とバイアス | 文化、人種、神経多様性(ASD等)による誤認識。 | 多様な学習データ、XAI(説明可能なAI)の導入 27。 |
| 感情操作の可能性 | 参加者の反応を特定の方向に誘導する。 | 透明性の確保、AIの介入限界の設定 26。 |
| デジタル・エクスクルージョン | デジタルリテラシーの低い層やAIへの不信感を持つ層の疎外。 | 包摂的な設計、非AI環境との選択性の確保 43。 |
| 情動的データの流出 | 極めて個人的な感情履歴の漏洩。 | データ最小化、強力な暗号化、現地保存(エッジ) 43。 |
26
結論:共創的認知としての会議雰囲気の記述
オンライン会議における「場の空気」を科学的に記述することは、もはや単なる空想ではなく、生理心理学、AI工学、および社会学が統合された最先端の学問領域として確立されている。
非接触心拍計測(rPPG)やマルチモーダル情動認識は、個人の緊張度やリラックス状態をリアルタイムで捉え、インターパーソナル・シンクロニーの解析は、集団としてのエンゲージメントや一体感を数値化することを可能にした。2025年から2026年にかけての技術動向は、これらのデータを単に表示するだけでなく、文脈を理解し、適切なタイミングで議論をサポートする「エージェント型AI」への進化を明確に示している。
しかし、これらの技術の導入は、科学的な精度向上と同時に、文化的な多様性への配慮、および個人の内面を保護するための倫理的なガバナンスが伴わなければならない。大学の会議や講義において、AIが生成するデータは「正解」ではなく、人間が互いの状態を「察し」、より深い共感と理解に達するための補助的な「道標」として扱われるべきである。
科学的に記述された「空気」は、我々が物理的な距離を超えて、より人間らしく、より創造的に繋がるための新たな共通言語となる。テクノロジーを監視の道具としてではなく、人間の相互理解を拡張するための「共創的認知(Collaborative Cognition)」の基盤として位置づけることで、オンライン会議は対面の代替物であることを超え、新たな知のフロンティアを切り拓く場へと変容していくであろう。
Works cited
- Remote Work Trends: Top 10 Predictions for 2025 – Splashtop, accessed May 3, 2026, https://www.splashtop.com/blog/remote-work-trends-2025
- McKinsey technology trends outlook 2025, accessed May 3, 2026, https://www.mckinsey.com/capabilities/tech-and-ai/our-insights/the-top-trends-in-tech
- (PDF) Social aspects as regards the time factor: an analysis of the work process in a virtual group – ResearchGate, accessed May 3, 2026, https://www.researchgate.net/publication/265040880_Social_aspects_as_regards_the_time_factor_an_analysis_of_the_work_process_in_a_virtual_group
- Teammate Familiarity in Distributed Computer-Supported Collaborative Learning: The Mediating Role of Social Presence, accessed May 3, 2026, https://www.irrodl.org/index.php/irrodl/article/view/7332
- Leadership, mood, atmosphere, and cooperative support in project groups | Journal of Managerial Psychology | Emerald Publishing, accessed May 3, 2026, https://www.emerald.com/jmp/article/20/6/483/237012/Leadership-mood-atmosphere-and-cooperative-support
- Artificial Intelligence-Based Emotional Intelligence for Data Analytics: Foundations, Applications, and Ethical Considerations – AIJFR, accessed May 3, 2026, https://www.aijfr.com/papers/2026/2/5137.pdf
- Collective Efficacy in Sports and Physical Activities: Perceived Emotional Synchrony and Shared Flow – Frontiers, accessed May 3, 2026, https://www.frontiersin.org/journals/psychology/articles/10.3389/fpsyg.2015.01960/full
- Group flow: A scoping review of definitions, theoretical approaches, measures and findings – Research journals – PLOS, accessed May 3, 2026, https://journals.plos.org/plosone/article/file?type=printable&id=10.1371/journal.pone.0210117
- Interpersonal heart rate synchrony predicts effective information …, accessed May 3, 2026, https://www.pnas.org/doi/10.1073/pnas.2313801121
- The Science of Team Synchrony | Psychology Today, accessed May 3, 2026, https://www.psychologytoday.com/us/blog/all-things-brain/202503/the-science-of-team-synchrony
- Inter-brain synchrony in teams predicts collective performance …, accessed May 3, 2026, https://academic.oup.com/scan/article/16/1-2/43/5912973
- Synchrony During Online Encounters Affects Social Affiliation and Theory of Mind but Not Empathy – PMC, accessed May 3, 2026, https://pmc.ncbi.nlm.nih.gov/articles/PMC9450704/
- Physiological and Behavioral Synchrony Predict Group Cohesion and Performance – PMC, accessed May 3, 2026, https://pmc.ncbi.nlm.nih.gov/articles/PMC7242382/
- Deep Learning Methods for Remote Heart Rate Measurement: A Review and Future Research Agenda – MDPI, accessed May 3, 2026, https://www.mdpi.com/1424-8220/21/18/6296
- Reliability-Aware Weighted Multi-Scale Spatio-Temporal Maps for Heart Rate Monitoring, accessed May 3, 2026, https://arxiv.org/html/2603.26836v1
- Lightweight rPPG Framework for Real-Time Physiological Monitoring on AR Devices – IEEE Xplore, accessed May 3, 2026, https://ieeexplore.ieee.org/iel8/10053844/11390740/11288014.pdf
- Heart Rate Emotion Detection via rPPG | PDF | Deep Learning – Scribd, accessed May 3, 2026, https://www.scribd.com/document/932144643/B16-Report
- PulseFormer: Continuous Remote Heart Rate Measurement Through Zoomed Time-Spectral Attention – IEEE Xplore, accessed May 3, 2026, https://ieeexplore.ieee.org/iel8/8423754/11180155/10899865.pdf
- Remote photoplethysmography for health assessment: a review informed by IntelliProve technology – Frontiers, accessed May 3, 2026, https://www.frontiersin.org/journals/digital-health/articles/10.3389/fdgth.2025.1667423/full
- Emotion Recognition from rPPG via Physiologically Inspired Temporal Encoding and Attention-Based Curriculum Learning – MDPI, accessed May 3, 2026, https://www.mdpi.com/1424-8220/25/13/3995
- State-of-the-art Multimodal Emotion Recognition: A comprehensive survey and taxonomy, accessed May 3, 2026, https://pure.eur.nl/en/publications/state-of-the-art-multimodal-emotion-recognition-a-comprehensive-s/
- Affective Computing Market Outlook 2026-2032, accessed May 3, 2026, https://www.intelmarketresearch.com/affective-computing-market-24206
- 【2026】感情認識AIとは?仕組みや活用事例、注意点まで詳しく …, accessed May 3, 2026, https://ai-kenkyujo.com/news/kanjoninshiki-ai/
- Multimodal Emotion Recognition in Conversations Using Transformer and Graph Neural Networks – MDPI, accessed May 3, 2026, https://www.mdpi.com/2076-3417/15/22/11971
- Multimodal Emotion Recognition in Conversations: A Survey of Methods, Trends, Challenges and Prospects – ACL Anthology, accessed May 3, 2026, https://aclanthology.org/2025.findings-emnlp.332/
- Ethical Considerations in Emotion Recognition Research – MDPI, accessed May 3, 2026, https://www.mdpi.com/2813-9844/7/2/43
- Full article: Constructing a Methodological Discourse for Using Emotion Recognition in AI Ethics—From Behaviorist to Cognitive Approaches – Taylor & Francis, accessed May 3, 2026, https://www.tandfonline.com/doi/full/10.1080/10447318.2025.2551049
- Revenue Accelerator Pricing – Zoom, accessed May 3, 2026, https://zoom.us/pricing/revenue-accelerator
- Managing Revenue Accelerator analytics – Zoom Support, accessed May 3, 2026, https://support.zoom.com/hc/en/article?id=zm_kb&sysparm_article=KB0059299
- Smarter agents with deeper context: The next frontier in revenue AI – Zoom, accessed May 3, 2026, https://www.zoom.com/en/blog/the-next-frontier-in-revenue-ai/
- Best AI Notetakers and AI Copilots for Meetings in 2025 – Read AI, accessed May 3, 2026, https://www.read.ai/articles/best-ai-notetakers-and-ai-copilots-for-meetings-in-2025—compare-features-pricing-and-reviews
- The Best AI Meeting Assistant for 2026 | Otter.ai, accessed May 3, 2026, https://otter.ai/blog/best-ai-meeting-assistant
- Read AI vs Otter AI: A 2026 Comparison Guide, accessed May 3, 2026, https://www.read.ai/articles/read-ai-vs-otter-ai
- Otter AI Alternatives: 10 Top Picks for Teams in 2026, accessed May 3, 2026, https://www.read.ai/articles/otter-ai-alternatives-10-top-picks-for-teams-in-2026
- Cultural and individual differences in emotion recognition from masked facial expressions: Evidence from Japan, the U.S., and China – ResearchGate, accessed May 3, 2026, https://www.researchgate.net/publication/400320170_Cultural_and_individual_differences_in_emotion_recognition_from_masked_facial_expressions_Evidence_from_Japan_the_US_and_China
- Evidence and a computational explanation of cultural differences in facial expression recognition – PubMed, accessed May 3, 2026, https://pubmed.ncbi.nlm.nih.gov/21171759/
- Evidence and a Computational Explanation of Cultural Differences in Facial Expression Recognition – PMC, accessed May 3, 2026, https://pmc.ncbi.nlm.nih.gov/articles/PMC7360061/
- Cultural difference in recognition of facial emotional expression: contrast between Japanese and American raters – PubMed, accessed May 3, 2026, https://pubmed.ncbi.nlm.nih.gov/10687742/
- ACII 2025: 13th International Conference on Affective Computing and Intelligent Interaction – CFP, accessed May 3, 2026, https://easychair.org/cfp/ACII2025
- AI and Ethics of Smart Education – FII Institute, accessed May 3, 2026, https://fii-institute.org/wp-content/uploads/2026/03/8093-R2-Ethics-of-Smart-Education-Report_FINAL.pdf
- Full article: User-Centered Insights into Emotional Experiences and AI-Based Emotion Monitoring and Regulation in China: A Cross-Sectional Survey, accessed May 3, 2026, https://www.tandfonline.com/doi/full/10.1080/10447318.2026.2643359
- Full article: User Perspectives on AI-Supported Emotion Monitoring and Regulation: A Focus Group Study in Non-Clinical Contexts – Taylor & Francis, accessed May 3, 2026, https://www.tandfonline.com/doi/full/10.1080/10447318.2026.2645444
- AI affective computing and behavioral health – Frontiers, accessed May 3, 2026, https://www.frontiersin.org/journals/computer-science/articles/10.3389/fcomp.2025.1692728/full
その他のウェブ情報
- Hylable Discussion Web版とは 画期的なクラウド型Web会議システムです。参加者の発言量やその変化、やり取りの量などのデータをリアルタイムで分析し、その場で見える化します(特許審査中)。
- 会議コミュニケーションを支援するリアルタイムエージェントシステム 2026年1月エージェント特集 docomo.ne.jp
- 人を理解するAI技術を活用したMDIS音声ソリューションの高度化 三菱電機技報・Vol.98・No.5・2024
- 感情や発言量をリアルタイムで分析!会議を見える化する最新技術 更新日: 2024年02月13日 Ferret Media オンライン会議のテクノロジーとして代表的なサービスが、2021年11月にNTTレゾナント株式会社(現・株式会社NTTドコモ)からサービスが提供された「AI suite」を使ったオンライン会議センシング技術です。
- 【新商品】会議中の参加者の感情推移をAIが分析するシステム『Read Line(リードライン)』をリリース AIベンチャーのマグナリープ株式会社、リモートワークやテレワークでのコミュニケーション・ロスをAIで改善する表情分析システム「Read Line」の提供を開始! マグナリープ株式会社 2023年9月19日 10時00分
- オンライン会議における感情推定と参加者へのフィードバック方法 2022