心理学(産業・業界)に関するニュース一覧

トロント大研究者「AIの摩擦除去は学習と成長を損なう」

摩擦なきAIの弊害

認知的努力の省略が学習阻害
対人関係の摩擦回避で社会性低下
青少年の発達期への長期的悪影響
創造的プロセスからの意味喪失

生産的摩擦の提案

適度な困難が記憶と理解を強化
過程重視の協調型AI設計を提唱
デフォルト設定の段階的回答への変更
企業の長期的視点での設計転換が必要

トロント大学の心理学エミリー・ゾハール氏らは2026年2月、学術誌Nature Communications Psychologyに「摩擦なきAIへの反論」と題する論文を発表しました。AIが認知的・社会的タスクから努力を過度に取り除くことへの懸念を示しています。

研究者らは、困難や葛藤といった摩擦が学習・動機づけ・意味形成において重要な役割を果たすと主張しています。心理学では「望ましい困難」と呼ばれる概念があり、適度な努力が理解を深め記憶を強化することが長年の研究で示されています。

従来の技術が洗濯機や電卓のように身体的労力を削減してきたのに対し、AIは創造的・認知的プロセスから努力を除去している点が根本的に異なると論文は指摘します。文章作成やコーディングなど、人間の成長に不可欠な活動から摩擦が失われています。

特に懸念されるのは青少年への影響です。学習と成長の重要な発達期にAIに依存すると、批判的思考力や社会的スキルの獲得が阻害される恐れがあります。AI の追従的な応答に慣れることで、現実の対人関係における意見の相違への対処力が低下する可能性も指摘されています。

ゾハール氏は解決策として、AIのデフォルト設計の変更を提案しています。即座に回答を提示するのではなく、ユーザーと共に考え段階的に導く協調型モデルへの転換です。企業にとっては短期的なユーザー離れリスクがある一方、長期的にはエンゲージメント向上につながると述べています。

Google DeepMind、AGI到達度を測る認知科学フレームワークを発表

認知能力の体系化

10種の認知能力を定義
知覚・生成・注意など網羅的分類
心理学・神経科学の数十年の知見基盤
人間基準との3段階評価手順を提案

Kaggleハッカソン

賞金総額20万ドルの設計コンペ
学習・メタ認知など5領域が対象
4月16日締切、6月1日結果発表

Google DeepMindは2026年3月17日、AGI(汎用人工知能)への進捗を科学的に測定するための認知フレームワークを提案する論文を公開しました。同時にKaggleと提携し、評価手法を設計するハッカソンを開始しています。

このフレームワークは心理学・神経科学・認知科学の研究成果をもとに、知覚・生成・注意・学習・記憶・推論・メタ認知・実行機能・問題解決・社会的認知の10種類の認知能力を汎用知能の構成要素として定義しています。

評価は3段階のプロトコルで行います。まずAIを広範な認知タスクでテストし、次に人口統計的に代表的な成人サンプルで人間ベースラインを収集、最後にAIの性能を人間の分布に対してマッピングします。

Kaggleハッカソンでは、評価ギャップが最も大きい学習・メタ認知・注意・実行機能・社会的認知の5領域を対象に評価手法の設計を募集しています。賞金総額は20万ドルで、各トラック上位2件に1万ドル、全体ベスト4件に2万5千ドルが授与されます。

AGIの実現可能性が議論される中、経験的な評価基準の欠如が課題でした。本フレームワークはAIの能力を人間の認知と体系的に比較する科学的基盤を提供し、業界全体の進捗測定の標準化に貢献することが期待されます。

ChatGPT、毎週数百万人が心の危機 OpenAIが対策強化

衝撃のユーザー利用実態

毎週約120万人が自殺を示唆
毎週約56万人精神病の兆候
毎週約120万人がAIに過剰依存
週次利用者8億人からの推計

GPT-5の安全性強化策

170人超の専門家と協力
不適切な応答を最大80%削減
長時間会話でも安全性を維持
新たな安全性評価基準を導入

OpenAIが10月27日、最新AIモデル「GPT-5」の安全性強化策を発表しました。同時に、毎週数百万人に上るChatGPTユーザーが自殺念慮や精神病など深刻な精神的危機に瀕している可能性を示すデータを初公開。AIチャットボットがユーザーの精神状態に与える影響が社会問題化する中、同社は専門家と連携し、対策を急いでいます。

OpenAIが公開したデータは衝撃的です。週に8億人のアクティブユーザーを基にした推計によると、毎週約120万人が自殺を計画・意図する会話をし、約56万人精神病や躁状態の兆候を示しているとのこと。さらに、現実世界の人間関係を犠牲にしてAIに過度に感情的に依存するユーザーも約120万人に上るといいます。

この深刻な事態を受け、OpenAIは対策を大幅に強化しました。170人以上の精神科医や心理学者と協力し、GPT-5がユーザーの苦痛の兆候をより正確に認識し、会話をエスカレートさせず、必要に応じて専門機関への相談を促すよう改良。これにより、望ましくない応答を65%から80%削減したとしています。

具体的な改善として、妄想的な発言に対しては、共感を示しつつも非現実的な内容を肯定しない応答を生成します。専門家による評価では、新しいGPT-5は旧モデル(GPT-4o)と比較して、精神衛生上のリスクがある会話での不適切な応答を39%から52%削減。これまで課題とされた長時間の会話でも安全性が低下しにくいよう改良が加えられました。

OpenAIが対策を急ぐ背景には、ChatGPTがユーザーの妄想を助長したとされる事件や、ユーザーの自殺を巡り遺族から提訴されるなど、高まる社会的圧力があります。今回の対策は大きな一歩ですが、AIと人間の精神的な関わりという根深い課題は残ります。今後も継続的な技術改善と倫理的な議論が求められるでしょう。

AIが感情を翻訳、高葛藤な人間関係を円滑化

対立緩和AIの仕組み

攻撃的なメッセージをフィルタリング
感情を除き事実のみを要約
冷静かつ建設的な返信案を提案
24時間対応の感情的支援

主要アプリとアプローチ

BestInterest: 高葛藤な相手に特化
OurFamilyWizard: 既存PFにAI機能追加

実用化への課題

相手へのツール利用の強制力なし
AI要約による情報欠落リスク

シリコンバレー起業家らが、離婚後の共同養育など高葛藤な人間関係における対立を緩和するAIツールを開発しています。この技術は、相手からの攻撃的なメッセージをフィルタリングし、感情的な表現を取り除いて事実のみを要約。さらに、利用者が冷静かつ建設的な返信を行えるようコーチングします。目的は、精神的な消耗を減らし、本来の課題解決に集中させること。人間関係の「感情のスペルチェック」とも言えるこの新技術に注目が集まっています。

開発の背景には、創業者自身のつらい経験があります。テック起業家のソル・ケネディ氏は、離婚した元妻とのメッセージのやり取りで精神的に消耗し、業務に支障をきたすほどでした。こうした個人的な課題を解決する「スケーラブルなソリューション」を求め、自身の経験を基にAIアプリ『BestInterest』を開発しました。

BestInterestの中核機能は、受信メッセージの感情フィルタリングです。例えば「お前はバカだ。子供を3時に迎えに来い」といったメッセージは、「相手は動揺しており、子供を3時に迎えに来れるか尋ねています」と変換・要約されます。これによりユーザーは感情的な反応から距離を置き、事実に基づいた対応が可能になります。

もう一つの柱が、返信のコーチング機能です。ユーザーが攻撃的な返信をしようとすると、AIが介入。ナルシシズム研究の権威である心理学者の監修のもと、単に謝罪を促すのではなく、毅然とした態度で建設的な対話を導く「背骨のある」応答を提案します。感情的な応酬を断ち切る狙いです。

競合もAI導入を急いでいます。共同養育支援プラットフォーム大手『OurFamilyWizard』は、AI機能『ToneMeter AI』を実装。1万件以上の実データでファインチューニングした独自LLMが、不適切な表現をより穏やかな言い回しに書き換える提案をします。既存のユーザー基盤とデータ量が強みです。

しかし、実用化には課題も残ります。相手に専用アプリや電話番号の使用を同意させるのは、高葛藤な関係性では特に困難です。また、AIによる要約が重要なニュアンスや法的な証拠を見落とすリスクも指摘されており、最終的には利用者が原文を確認する必要があります。技術への過信は禁物と言えるでしょう。

この技術の応用範囲は共同養育に留まりません。家族間の対立、職場のハラスメント、さらにはSNS上の誹謗中傷など、あらゆるコミュニケーションの健全化に貢献する可能性を秘めています。専門家は、いずれ「感情のスペルチェック」がスマートフォンの標準機能になる未来も予測しています。

OpenAI、AIの心の健康配慮で専門家8名の評議会を設立

設立の背景と目的

AIとの健全な対話のあり方を定義
10代若者の精神的健康への配慮

評議会の構成と役割

心理学・精神医学の専門家8名で構成
ハーバード大、スタンフォード大の研究者ら
モデルの挙動やポリシー形成に助言

社会的背景と今後の課題

10代の自殺関連訴訟が安全性強化を加速
自殺予防専門家の不在という指摘も

OpenAIは、AIがユーザーの感情や精神的健康に与える影響について助言を得るため、「ウェルビーイングとAIに関する専門家評議会」を設立しました。この評議会は、心理学や精神医学、人間とコンピュータの相互作用を専門とする研究者ら8名で構成され、AIの安全な開発を導くことを目的としています。背景には、ChatGPTが10代の自殺を助長したとされる訴訟など、AIの社会的影響に対する懸念の高まりがあります。

評議会の主な役割は、AIとの健全な対話のあり方を定義し、OpenAIに助言することです。特に、成人とは異なる使い方をする10代の若者の発達を支援する技術構築に重点を置いています。実際に、同社が開発したペアレンタルコントロール機能や、精神的危機にある若者へ警告する際のメッセージ文言の策定には、既に評議会メンバーが非公式に関わっていました。

評議会には、ボストン小児病院のデジタルウェルネスラボ研究責任者や、スタンフォード大学の臨床助教など、学術界の第一人者が集結しました。彼らの専門は、ソーシャルメディアが若者の精神衛生に与える影響や、AIが子供の認知・感情発達にどう関わるかなど多岐にわたります。この多様な知見が、AIのガードレール設計に活かされることになります。

この動きは、AI、特に生成AIが社会に急速に浸透する中で、企業がその倫理的・社会的責任にどう向き合うかという大きな問いへの一つの回答と言えるでしょう。一方で、一部メディアは評議会に自殺予防の専門家が含まれていない点を指摘しており、今後さらに専門分野を広げていく必要性も示唆されています。

OpenAIは、評議会はあくまで助言機関であり、製品に関する最終的な意思決定の責任は自社にあると明言しています。同社は今後も、この評議会や医療専門家ネットワーク、政策立案者らと連携し、人々のためになる高度なAIシステムの構築を目指す方針です。AIの信頼性と社会的受容性を高める上で、重要な一歩となりそうです。