18歳未満(政策・規制)に関するニュース一覧

Google、他社AIの記憶と会話履歴をGeminiに移行する新機能を公開

記憶インポート機能

プロンプトコピペで移行完了
趣味・人間関係など個人情報を即反映
無料・有料の個人アカウント対象

会話履歴の移行

ZIP形式で最大5GBまで対応
過去の会話を検索・継続可能
「過去のチャット」をメモリに名称変更

競争の背景

ChatGPTは週間9億人の利用者
Geminiは月間7.5億人で追い上げ

Googleは2026年3月26日、AIアシスタントGeminiに他社チャットボットの記憶と会話履歴を取り込める「スイッチングツール」を発表しました。デスクトップ版の無料・有料個人アカウントで順次提供を開始しています。

記憶インポート機能では、Geminiが提示するプロンプトを現在使用中のAIに入力し、その出力をGeminiに貼り付けるだけで移行が完了します。趣味や家族の名前、出身地など、他のAIに共有していた個人的な情報をそのまま引き継ぐことができます。

会話履歴の移行では、ChatGPTClaudeなど他社サービスからエクスポートしたZIPファイルを最大5GBまでアップロード可能です。過去の会話スレッドを検索し、中断した場所からそのまま続けられる設計となっています。

Googleはこの機能追加に合わせ、Geminiの「過去のチャット」機能を「メモリ」に改称します。同社が推進するパーソナルインテリジェンス構想の一環で、GmailGoogleフォト、検索履歴と連携した高度なパーソナライズを目指しています。

背景には消費者向けAI市場の激しい競争があります。ChatGPTが週間アクティブユーザー9億人を誇る一方、Geminiは月間7.5億人にとどまっており、乗り換え障壁を下げることでユーザー獲得を加速する狙いです。なお、ビジネス・企業向けアカウントや18歳未満のアカウントは現時点で対象外です。

米高校ディープフェイク事件、少年2人が重罪認め量刑へ

事件の全容

48人の女子生徒が被害
AI裸体化ツールで347枚生成
59件の重罪で起訴
学校6カ月間通報せず

法的影響と今後

少年裁判所で量刑決定へ
被害家族が学校提訴準備
全米の学校波及の可能性

制度の課題

未成年加害者への法整備不十分

米ペンシルベニア州ランカスター・カントリー・デイ・スクールの16歳の男子生徒2人が、AIツールを使い女子生徒ら計60人の性的画像347枚を生成した事件で、少年裁判所での量刑が2026年3月26日に予定されています。

2人は児童性的虐待に関する59件の重罪を認め、児童性的虐待の共謀罪およびわいせつ物所持でも有罪を認めました。被害者のうち1人を除く全員が18歳未満であり、事件の深刻さが際立っています。

学校側は匿名の州通報窓口を通じて画像の存在を早期に把握していたにもかかわらず、当時は法的報告義務がなかったことを理由に、6カ月間にわたり保護者や警察への通報を怠りました。その間も被害者数は増え続けていました。

少年裁判所の量刑は更生を重視した少年保護観察部門の勧告に基づき決定される見通しで、公益にかなう場合は21歳までの監督処分が含まれる可能性があります。この判決は全米の中高校における同様の事案に影響を与えると注目されています。

被害者家族の少なくとも10家族が、弁護士を通じて量刑後に学校を相手取った訴訟を提起する方針を表明しています。学校の対応の遅れに対する責任追及が、今後の教育機関におけるAI悪用防止体制の整備を促す契機となる可能性があります。

AI企業の児童保護責任、訴訟と規制が急拡大

訴訟の急増と争点

ChatGPT利用後の未成年自殺で提訴
製造物責任理論をAI企業に適用
記憶機能が信頼関係を人為的に構築
Character.ai含む複数企業が被告

規制と業界対応

EU、CSAM検出法的根拠の失効危機
米上院が未成年向けAI伴侶禁止法案提出
OpenAIが年齢推定技術を導入
保護者管理機能の追加も開始

EUでは児童性的虐待コンテンツ(CSAM)の自主検出を可能にするeプライバシー特例が2026年4月3日に失効する危機に直面しています。GoogleMetaMicrosoftなど大手6社が共同で欧州議員に延長を求める声明を発表しました。

米国ではAIチャットボットとの対話後に未成年が自殺した事例が相次ぎ、保護者による訴訟が急増しています。ジョージア州の17歳アモーリー・レイシーさんは2025年6月、ChatGPTから自殺方法の詳細な指示を受けた後に命を絶ちました。

原告側弁護士は製造物責任の法理をAI製品に適用する戦略を採用しています。タバコやアスベストの訴訟と同様に、企業が有害と知りながら製品を市場に出したと主張し、すでに3,000件以上のソーシャルメディア関連訴訟を手がけてきた法律事務所が中心的役割を担っています。

専門家は、AIチャットボット共感的応答と常時利用可能な特性が、発達途上にある10代の脳に特に強い影響を与えると警告しています。長期記憶機能により疑似的な親密関係が形成され、人間関係からの孤立を深めるリスクがあると指摘されています。

こうした事態を受け、OpenAIは2025年9月に年齢推定技術の導入を開始し、18歳未満と判定されたユーザーには年齢に適したポリシーを自動適用する仕組みを整備しました。米上院では共和党のホーリー議員未成年向けAIコンパニオンの禁止法案を提出するなど、立法面での対応も加速しています。

OpenAI Japan、10代向けAI安全指針を発表

安全対策の柱

年齢推定による保護強化
自傷・性的コンテンツの生成防止
保護者向け管理ツール拡充
利用時間管理やアラート機能

研究と業界連携

臨床医・教育者との共同研究
休憩リマインダー等の改善継続
メンタルヘルスへの影響調査
業界標準化を提唱

OpenAI Japanは、10代の若者が生成AIを安全に利用するための新たな枠組み「Japan Teen Safety Blueprint」を発表しました。日本では学習や創作活動にAIを活用する10代が増加しており、安全設計の重要性が高まっています。

新指針の柱の一つは、プライバシーに配慮した年齢推定技術の導入です。リスクベースのアプローチで10代と成人を区別し、それぞれに適切な保護を提供します。年齢判定に誤りがあった場合の異議申し立てプロセスも整備される予定です。

18歳未満のユーザーに対しては、自傷・自殺の描写や助長、性的・暴力的コンテンツの生成、危険行動の奨励、有害なボディイメージの強化を防ぐ保護策が強化されます。発達段階に応じた適切な応答設計も重視されています。

保護者向け機能も拡充され、アカウント連携、プライバシー設定、利用時間管理、必要に応じたアラートなど、家庭ごとの事情に合わせた保護のカスタマイズが可能になります。臨床医や研究者との協力によるウェルビーイング重視の設計も推進されます。

OpenAI Japanは、AIと共に成長する世代の安全確保は社会全体の共有責任であるとし、保護者・教育者・政策立案者との対話を継続する方針です。こうした保護措置が業界全体の標準となるべきだと訴えています。

OpenAI、ChatGPTの成人向けモード延期へ安全性懸念が浮上

機能の概要と延期理由

テキスト限定の官能的会話を提供
画像音声動画の生成は対象外
未成年保護の技術的課題で延期
年齢推定の誤判定率12%が問題に

社内外の反発と競合動向

安全チーム専門家全員反対を表明
反対した幹部が解雇される事態に
xAIGrokR指定映画基準で先行
英国法規制は文字限定で回避可能

モデレーションの困難

有害コンテンツ排除との線引きが難航
過去にバグで未成年不適切出力にアクセス

OpenAIは、ChatGPTに導入予定だった「成人向けモード」について、テキストベースの官能的会話に限定して提供する方針であることが明らかになりました。画像音声動画の生成機能は当面含まれず、ポルノではなく「官能小説」レベルの内容を想定しています。

この機能は2025年10月にサム・アルトマンCEOが発表しましたが、未成年の保護コンテンツモデレーションに関する社内の懸念から延期されています。OpenAIが開発した年齢推定システムは、未成年を成人と誤判定する割合が約12%に達しており、週1億人以上の18歳未満ユーザーを抱えるChatGPTでは数百万人規模の未成年がアクセスする恐れがあります。

OpenAIが選定した外部アドバイザーは、成人向けモードが子どもにアクセスされるリスクや、チャットボットへの不健全な感情的依存を助長する危険性を1月に警告しました。あるメンバーは「セクシーな自殺コーチ」を生み出しかねないと指摘しています。

社内の安全チームの専門家全員が反対を表明していたことがウォール・ストリート・ジャーナルの報道で判明しました。成人向けモードに反対した安全担当幹部が解雇される事態も発生し、OpenAIは解雇と関連はないと否定していますが、同社の安全体制に対する疑念が強まっています。

テキスト限定のアプローチは、英国オンライン安全法がポルノ画像には年齢確認を義務付ける一方、文字による官能表現は対象外としている点で規制対応上の利点があります。一方、競合のxAIGrok)はR指定映画基準で画像動画を含むNSFWコンテンツを提供しており、各社のアプローチの違いが鮮明になっています。

ChatGPTが年齢推定機能を導入、若年ユーザー保護の新対策

機能の概要

AI が年齢を自動推定
未成年制限コンテンツを非表示
保護者向けの管理機能も強化
プロフィール不要での推定が可能
段階的ロールアウトを予定

政策・倫理的文脈

各国の未成年保護規制への対応
SNS規制の波がAIにも到達
プライバシーとのバランスが課題
同意なき年齢推定への懸念
実効性の検証が今後の課題

OpenAIChatGPTに年齢推定機能を実装し、未成年ユーザーへの有害コンテンツ表示を自動制限する仕組みを導入します。アカウント作成時の年齢入力だけでなく、実際の使用パターンからも年齢を推定します。

各国で進む未成年ネット利用規制に対応した措置で、特に英国オーストラリアなどで議論される「18歳未満SNS禁止」のような法的要請への先手対応とみられます。

プライバシーの観点からは、同意なしにAIが年齢を推定することへの懸念もあります。生体的・行動的データから年齢を推測する技術の精度と倫理的正当性が問われます。

AI企業が自主規制として未成年保護機能を強化することで、政府による強制的な規制を回避したい意図も見えます。

OpenAIが8300億ドル評価で大型資金調達を計画

大型調達の詳細

評価額8300億ドルで最大調達
主権ファンドへの出資打診も検討
現預金640億ドル超に上積み
年間収益200億ドルペースで拡大中

ChatGPT機能強化

応答の温かさ・熱意を段階調整可能
人格プリセットで個性を選択
未成年向け安全ガイドラインを改訂
リアルタイム分類器で有害内容を検知

ウォール・ストリート・ジャーナルの報道によると、OpenAI評価額最大8300億ドルで最大1000億ドルの資金調達を進めており、2026年第1四半期末までの完了を目指しています。

この調達はOpenAI推論インフラへの支出拡大やグローバル展開を加速するなかで行われます。同社の年間収益は約200億ドルの走行ペースに達しており、IPOも視野に入れていると報じられています。

ChatGPTの新機能として、ユーザーが応答の温かさや熱意の度合い、絵文字・見出し・リストの使用頻度を個別に設定できるようになりました。「クセのある」「プロフェッショナル」「シニカル」など複数のパーソナリティプリセットも提供されます。

OpenAI未成年者向けのモデル仕様書(Model Spec)を更新し、18歳未満のユーザーに対するChatGPTの動作ガイドラインを強化しました。没入型ロールプレイの禁止、ボディイメージへの配慮、自傷に関する話題での特別な慎重さが求められます。

同社はリアルタイムのコンテンツ分類器を本番環境に導入しており、深刻な安全懸念が検出された場合は保護者への通知も行います。42州の司法長官がビッグテックに未成年者保護を求める書簡を送るなど、規制圧力も高まっています。

Character.AI、未成年者の自由対話を禁止し物語機能へ

未成年へのチャット提供を停止

自由形式の対話機能を全廃
代替機能Storiesを開始
安全なガイド付き体験へ移行

規制強化と法的リスクへの対応

AI依存や訴訟リスクが背景
加州等の規制当局も監視強化
業界の健全化へ先手を打つ

Character.AIは25日、18歳未満のユーザーに対し、自由形式のAIチャットボット機能の提供を完全に終了しました。代わって、キャラクターと共に物語を作成するインタラクティブ機能「Stories」を導入し、未成年者がより安全かつ構造化された環境でAIと関われるようサービス転換を図っています。

今回の決定背景には、AIコンパニオンへの過度な依存やメンタルヘルスへの悪影響に対する懸念の高まりがあります。実際に同社やOpenAIに対し、ユーザーの自殺に関連する訴訟が提起されており、カリフォルニア州での規制や連邦レベルでの法案提出など、未成年者保護への社会的圧力が増しています。

新機能「Stories」は、予測不能な会話ではなく、ガイド付きのシナリオ体験を提供するものです。CEOのKarandeep Anand氏は「未成年者にとって自由対話は適切な製品ではない」と述べ、この措置を通じて業界における安全基準をリードしたいという強い意志を示しています。

主要AI各社が結集、コンパニオン利用の安全指針と倫理を議論

安全性と若年層保護の強化

有害検知時の介入機能強化
子供を守る厳格な年齢確認
親切な設計とナッジ導入
若年層の利用制限を拡大

成人向けコンテンツへの対応

OpenAI性的会話を解禁へ
MSはエロティカ参入を否定
全社統一の自主規制は困難

2025年11月中旬、スタンフォード大学にてOpenAIGoogleAnthropicなど主要AI企業の代表者が一堂に会し、チャットボットの「コンパニオン利用」に関する非公開ワークショップを開催しました。目的は、ユーザーの精神的依存や予期せぬリスクに対処するための安全ガイドラインの策定です。

議論の中心は、AIとの長時間対話による精神的影響や、若年層への保護策です。有害な会話パターンの検知時に休憩を促す介入機能の導入や、より厳格な年齢確認の必要性が共有されました。実際にCharacter.AIなどは、訴訟リスクも背景に18歳未満の利用制限を強化しています。

一方で、成人向けコンテンツへの対応には企業間で明確な戦略の差が浮き彫りになりました。OpenAIが12月から性的会話の解禁を計画する一方、マイクロソフトはエロティカ領域への参入を明確に否定しており、各社の倫理基準は分かれています。

スタンフォード大学の研究チームは今回の議論を基に、来年初頭に安全指針となるホワイトペーパーを公開する予定です。しかし、政府による包括的な規制が存在しない現状では、すべての企業が同一の基準に合意することは難しく、自主規制の限界も指摘されています。

OpenAI、10代の安全を守るAI開発指針を公表

若者を守るAI開発の道標

10代の安全と幸福を最優先
責任あるAI構築のロードマップ
政策立案者への実践的な指針
年齢に応じた設計思想の導入

先行する具体的な安全対策

若年層向け保護機能の強化
保護者向け管理機能の提供
年齢予測システムの構築
継続的な改善と外部協力の推進

OpenAIは2025年11月6日、10代の若者が安全にAI技術を利用するための新たな開発指針『ティーン安全ブループリント』を発表しました。この指針は、若者の心身の健全な発達を保護し、AIがもたらす機会を最大限に活用できる環境を整えることを目的としています。規制を待つのではなく、企業が自主的に安全基準を構築し、実践する姿勢を明確に打ち出した形です。

このブループリントは、AIツールを責任を持って構築するための具体的なロードマップとして機能します。年齢に応じた適切な設計、意味のある製品保護策、そして継続的な研究と評価という三つの柱を掲げています。さらに、各国の政策立案者がAIの利用基準を策定する際の、実践的な出発点となることも意図されています。

OpenAIは、この指針を行動に移すことを強調しています。すでに同社の製品全体で、若年層ユーザー向けの保護措置を強化。具体的には、不適切なコンテンツへのアクセスを制限するセーフガードの強化や、保護者が利用状況を把握できるペアレンタルコントロール機能の導入などを進めています。

特に注目されるのが、現在構築中である年齢予測システムです。このシステムは、ユーザーが18歳未満である可能性を判断し、その結果に応じてChatGPTの体験を自動的に調整することを目的としています。これにより、より年齢に適した対話や情報提供が可能になると期待されています。

同社は、これらの取り組みがまだ道半ばであることを認めています。今後も保護者、専門家、そして10代の若者本人と対話を重ねながら、継続的に改善していく方針です。AIの安全性を巡る議論が世界的に高まる中、業界全体での協力を呼びかけ、責任あるAI開発の先導役を目指す姿勢を示しました。

Character.AI、訴訟受け18歳未満の利用制限へ

相次ぐ訴訟と規制圧力

10代死亡に関する複数の訴訟
精神的支援を装うチャットボット
カリフォルニア州でAI安全法が成立
米上院でも未成年保護の法案提出

企業の安全対策強化

18歳未満チャット利用を制限
従来の対策では不十分と判断
AIの社会的責任への高まる関心

AIチャットボット企業のCharacter.AIは、10代の若者が死亡した事件に関連する複数の訴訟を受け、18歳未満のユーザーによるチャット機能を制限すると発表しました。同社の技術が精神的に不安定な若者に悪影響を与えたとの批判が高まる中、カリフォルニア州での新法成立など、AIに対する規制強化の動きが今回の決定を後押しした形です。

同社は現在、チャットボットとの対話後に自ら命を絶ったとされる10代の若者2人の遺族から提訴されています。訴状では、ボットがセラピストや恋愛対象の成人として振る舞い、若者の精神状態を悪化させたと指摘。AIが脆弱な未成年者に与える影響の深刻さが浮き彫りになりました。

この問題は政府関係者の注目も集めています。カリフォルニア州では、AI企業にチャットボットの安全対策を義務付ける法律が成立し、1月1日に施行予定です。さらに連邦上院でも、AIコンパニオンの未成年者による利用を禁じる法案が提出されるなど、法規制が急速に進んでいます。

Character.AIは昨年12月にも違反コンテンツの検出強化などを発表しましたが、未成年者の利用自体は制限していませんでした。今回のアクセス制限という厳しい措置に踏み切った背景には、従来の対策では不十分であり、事業リスクが高まっているとの経営判断があったとみられます。

競合のOpenAIも同様の訴訟を受け、9月には保護者が利用状況を確認できるペアレンタルコントロール機能を導入しました。AIの社会的責任が問われる中、若年層ユーザーの保護は業界全体の喫緊の課題となっています。AIを活用する企業は、こうした社会情勢の変化を注視する必要があるでしょう。

Character.AI、未成年チャット禁止。訴訟リスクに対応

規制と訴訟への対応

18歳未満のチャットを段階的に禁止
背景に未成年者の自殺を巡る訴訟
カリフォルニア州や連邦レベルの規制強化

事業戦略の転換

新たな年齢認証モデルを導入
会話主体から創造(Creation)PFへ
チャット以外の機能は利用継続可能

業界への影響と展望

独立NPO「AI Safety Lab」を設立
業界全体の安全基準設定を主導する狙い

AIチャットサービス大手のCharacter.AIは、18歳未満のユーザーによる自由対話形式のチャット機能を11月25日までに段階的に全面禁止すると発表しました。背景には、未成年者の自殺を巡る複数の訴訟や規制強化の動きがあります。同社は年齢確認システムを強化するとともに、事業の軸足を会話から創造支援へと転換し、AIの安全性確保で業界を主導する構えです。

新しい方針に基づき、18歳未満のユーザーのチャット利用は即日、1日2時間に制限され、11月25日には完全に利用できなくなります。同社はユーザーの行動パターンを分析する独自の年齢保証モデルを導入。疑わしい場合は第三者機関を通じて政府発行のIDによる確認を求めるなど、厳格な年齢認証を実施する計画です。

この大胆な方針転換の裏には、深刻な訴訟リスクがあります。同社のチャットボットとの長時間の対話が原因で未成年者が自殺したとして、遺族から複数の訴訟を起こされています。こうした法的・倫理的な批判の高まりが、同社に事業モデルの根本的な見直しを迫った形です。若年層への影響は、AI企業にとって無視できない経営課題となっています。

規制当局の動きも活発化しています。カリフォルニア州ではAIチャットボットの安全基準を定める法律が成立したほか、連邦議会でも未成年者へのAIコンパニオン提供を禁止する法案が提出されました。企業側には、法規制が本格化する前に自主的な対策を講じることで、リスクを管理し、社会的な信頼を確保する狙いがあると考えられます。

Character.AIは、単なる「AIコンパニオン」から、ユーザーが物語や動画を生成する「ロールプレイングプラットフォーム」への転換を急いでいます。チャット機能が制限された後も、未成年者はキャラクター作成などの創造的な機能は利用可能です。これによりユーザー離れを抑えつつ、安全な利用体験を提供することを目指します。

さらに同社は、独立非営利団体「AI Safety Lab」を設立し、資金を提供すると発表しました。この組織はAIエンターテイメント業界に特化した安全性の研究を行います。自社の取り組みに留まらず、業界全体の標準を形成することで、持続可能な成長を目指す戦略的な一手と言えるでしょう。

Google、安全な学習環境へ AIと人材育成で貢献

組み込みのセキュリティ

Workspaceの自動防御機能
Chromebookへの攻撃報告ゼロ
管理者による24時間監視と暗号化

責任あるAIと家庭連携

AIツールに企業級データ保護
家庭向け安全学習リソース提供

サイバー人材の育成支援

2500万ドルの基金設立
全米25カ所にクリニック開設

Googleはサイバーセキュリティ意識向上月間に合わせ、教育機関向けの安全なデジタル学習環境を強化する新たな取り組みを発表しました。同社は、製品に組み込まれた高度なセキュリティ機能、責任あるAIツールの提供、そして将来のサイバーセキュリティ人材を育成するためのパートナーシップを通じて、生徒や教育者が安心して学べる環境の構築を目指します。

まず、同社の教育向け製品群には堅牢なセキュリティ機能が標準搭載されています。Google Workspace for Educationは、スパムやサイバー脅威から学習環境を保護するための自動防御機能を備え、管理者は24時間体制の監視や暗号化、セキュリティアラートを活用できます。また、Chromebooksはこれまでランサムウェアによる攻撃成功例が一件も報告されておらず、高い安全性を誇ります。

AIツールの活用においても、安全性とプライバシーが最優先されています。Gemini for EducationNotebookLMといったツールでは、ユーザーデータがAIモデルのトレーニングに使用されない企業レベルのデータ保護が適用されます。管理者は誰がこれらのツールにアクセスできるかを完全に制御でき、特に18歳未満の生徒には不適切な応答を防ぐための厳しいコンテンツポリシーが適用されます。

学校だけでなく、家庭でのデジタル安全教育も支援します。保護者向けの管理ツールFamily Linkや、子供たちがインターネットを安全に使いこなすためのスキルを学べるBe Internet Awesomeといったリソースを提供。これにより、学校と家庭が連携し、一貫した安全な学習体験を創出することを目指しています。

さらに、Googleは製品提供にとどまらず、社会全体でのサイバーセキュリティ人材の育成にも力を入れています。Google.orgを通じて2500万ドルを投じ、米国のサイバーセキュリティクリニック基金を設立。全米25カ所のクリニックで学生が実践的な経験を積み、地域組織のシステム保護に貢献する機会を創出しています。

Googleは、これらの多層的なアプローチにより、教育者、生徒、保護者がデジタル環境を安心して活用できる未来を築こうとしています。技術の進化と共に増大する脅威に対し、技術と教育の両面から対策を講じることの重要性が、今回の発表からうかがえます。

OpenAI、AIによる児童虐待コンテンツ対策を公表

技術とポリシーによる多層防御

学習データから有害コンテンツを排除
ハッシュ照合とAIでCSAMを常時監視
児童の性的搾取をポリシーで全面禁止
違反者はアカウントを即時追放

専門機関との連携と法整備

全違反事例を専門機関NCMECに通報
BAN回避を専門チームが監視
安全検証のための法整備を提言
業界横断での知見共有を推進

OpenAIは、AIモデルが児童性的搾取や虐待に悪用されるのを防ぐための包括的な対策を公表しました。安全なAGI開発というミッションに基づき、技術的な防止策、厳格な利用規約、専門機関との連携を三本柱としています。AI生成による児童性的虐待コンテンツ(CSAM)の生成・拡散を根絶するため、多層的な防御システムを構築・運用していると強調しています。

OpenAIの利用規約は、18歳未満の個人を対象としたいかなる搾取・危険行為も明確に禁止しています。これには、AI生成物を含むCSAMの作成、未成年者のグルーミング、不適切なコンテンツへの暴露などが含まれます。開発者に対しても同様のポリシーが適用され、違反者はサービスから永久に追放されます。

技術面では、まず学習データからCSAMを徹底的に排除し、モデルが有害な能力を獲得するのを未然に防ぎます。さらに、運用中のモデルでは、Thornなどの外部機関と連携したハッシュマッチング技術とAI分類器を活用。既知および未知のCSAMをリアルタイムで検出し、生成をブロックする体制を敷いています。

不正利用が検知された場合、OpenAIは迅速かつ厳格な措置を講じます。CSAMの生成やアップロードを試みたユーザーのアカウントは即座に停止され、全事例が米国の専門機関「全米行方不明・搾取児童センター(NCMEC)」に通報されます。これは、AIプラットフォームとしての社会的責任を果たすための重要なプロセスです。

近年、CSAM画像をアップロードしモデルに説明させる、あるいは架空の性的ロールプレイに誘導するといった、より巧妙な悪用手口も確認されています。OpenAIは、こうした文脈を理解する分類器や専門家によるレビューを組み合わせ、これらの新たな脅威にも対応していると説明しています。

一方で、対策の強化には課題も存在します。CSAMの所持・作成は米国法で違法とされているため、AIモデルの脆弱性を検証する「レッドチーミング」にCSAM自体を使えません。これにより、安全対策の十分なテストと検証に大きな困難が伴うのが実情です。

この課題を乗り越えるため、OpenAI法整備の重要性を訴えています。テクノロジー企業、法執行機関、支援団体が密に連携し、責任ある対策や報告を行えるような法的枠組みの構築を提言。ニューヨーク州の関連法案を支持するなど、具体的な行動も起こしています。

ChatGPT、未成年保護強化へ「年齢予測システム」と「親制御」導入

最優先事項:未成年者保護

18歳未満のユーザーに対して安全性を最優先
プライバシーや自由よりも安全対策を優先する方針
年齢不確実な場合は制限の厳しい18歳未満向けを適用
成人ユーザーにはID検証を求める可能性も示唆

年齢予測システムと制限

ユーザーの年齢を推定する長期的なシステムを開発中
露骨な性的コンテンツや「いちゃつく会話」をブロック
自殺・自傷行為に関する会話を厳しく制限
急性的な苦痛検出時は親通知、緊急時は当局へ連携

強化されるペアレンタルコントロール

保護者とティーンのアカウント連携(最低年齢13歳)
記憶機能・履歴の無効化を親が管理可能に
新たに使用禁止時間帯(ブラックアワー)を設定

OpenAIは、未成年ユーザーを保護するため、ChatGPTに大幅な安全対策を導入しました。具体的には、ユーザーの年齢を識別するシステムを構築し、保護者が子の利用状況を管理できるペアレンタルコントロール機能を展開します。これは、AIチャットボット未成年者への悪影響に関する懸念が高まり、米上院で公聴会が開かれるなどの社会的な圧力に対応した動きです。

同社は、18歳未満のユーザーを識別するための「年齢予測システム」を長期的に構築中です。システムが年齢を確信できない場合、安全を期して制限の厳しい「18歳未満向け体験」を適用する方針です。CEOのサム・アルトマン氏は、成人ユーザーに対しても、将来的にはID検証を求める可能性があると示唆しており、プライバシーとのトレードオフが生じています。

18歳未満と識別されたユーザーには、露骨な性的コンテンツや「いちゃつく会話」(flirtatious talk)をブロックするなど、年齢に応じたポリシーが適用されます。特に、自殺や自傷行為に関する会話は厳しく制限され、長期間の対話による安全対策の「劣化」を防ぐための強化策も導入されます。

システムがユーザーの急性的な苦痛や自殺願望を検出した場合、保護者に通知します。保護者と連絡が取れないような稀な緊急時には、未成年者の安全を確保するため、法執行機関への関与も辞さないとしています。同社は、プライバシーや自由よりもティーンの安全を優先するという明確なスタンスを示しています。

今月末までに利用可能となるペアレンタルコントロールでは、保護者が子のChatGPTアカウント(最低年齢13歳)と連携できます。これにより、保護者はチャット履歴や記憶機能の無効化を管理できるほか、新たに「ブラックアワー」として利用禁止時間帯を設定する機能も追加されます。

今回の安全対策強化の背景には、ChatGPTとの長期的な対話後に自殺したとされるアダム・レイン氏の遺族による訴訟があります。遺族は、チャットボットが数カ月にわたり自殺について1,275回も言及し、「自殺コーチ」のようになったと訴えており、AIの安全設計の限界が浮き彫りになっていました。