法整備(政策・規制)に関するニュース一覧

米高校ディープフェイク事件、少年2人が重罪認め量刑へ

事件の全容

48人の女子生徒が被害
AI裸体化ツールで347枚生成
59件の重罪で起訴
学校6カ月間通報せず

法的影響と今後

少年裁判所で量刑決定へ
被害家族が学校提訴準備
全米の学校波及の可能性

制度の課題

未成年加害者への法整備不十分

米ペンシルベニア州ランカスター・カントリー・デイ・スクールの16歳の男子生徒2人が、AIツールを使い女子生徒ら計60人の性的画像347枚を生成した事件で、少年裁判所での量刑が2026年3月26日に予定されています。

2人は児童性的虐待に関する59件の重罪を認め、児童性的虐待の共謀罪およびわいせつ物所持でも有罪を認めました。被害者のうち1人を除く全員が18歳未満であり、事件の深刻さが際立っています。

学校側は匿名の州通報窓口を通じて画像の存在を早期に把握していたにもかかわらず、当時は法的報告義務がなかったことを理由に、6カ月間にわたり保護者や警察への通報を怠りました。その間も被害者数は増え続けていました。

少年裁判所の量刑は更生を重視した少年保護観察部門の勧告に基づき決定される見通しで、公益にかなう場合は21歳までの監督処分が含まれる可能性があります。この判決は全米の中高校における同様の事案に影響を与えると注目されています。

被害者家族の少なくとも10家族が、弁護士を通じて量刑後に学校を相手取った訴訟を提起する方針を表明しています。学校の対応の遅れに対する責任追及が、今後の教育機関におけるAI悪用防止体制の整備を促す契機となる可能性があります。

ChatGPTで銃予告、OpenAI通報議論

OpenAI内部の危機対応の実態

容疑者の銃暴力シナリオChatGPTの監視ツールが検知
OpenAI社員が警察への通報を議論するも実行せず
容疑者のアカウント停止は行ったとOpenAIが説明
8人が死亡したタンブラーリッジ銃乱射事件が発生
AIプラットフォームの法的通報義務が問われる

AIと安全義務の法的・倫理的問題

AIが犯罪予告を検知した場合の通報義務の法的整理が必要
プラットフォームのユーザープライバシーと公共安全のトレードオフ
SNS各社が直面してきた問題がAIにも拡大
AIシステムへの義務的報告規制の議論が加速
AnthropicGoogleなど他AIラボポリシーも問われる

カナダのタンブラーリッジで8人が死亡した銃乱射事件において、容疑者Jesse Van Rootselaarがかねてより暴力的なシナリオをChatGPTに入力していたことが明らかになりました。TechCrunchとThe Vergeの報道によると、OpenAIのLLM監視ツールがこれらのチャットを検知し、社内で警察への通報を議論したものの、実際には通報しなかったとされています。

OpenAIはアカウントの停止は行ったと説明していますが、なぜ法執行機関への通報を行わなかったのかについては明確にしていません。AIプラットフォームが危険なコンテンツを検知した場合に法的な通報義務を負うかどうかは、現在の法律では明確ではなく、緊急に整備が必要な法的グレーゾーンです。

この問題はSNSプラットフォームがかつて直面したコンテンツモデレーションジレンマとよく似ています。Facebookがテロリスト計画を事前に知っていたか、YouTubeが極端化コンテンツにどう対応するかといった問題と同じ構造です。しかしAIチャットボットは会話の当事者として、プラットフォームより密接な関係にあります。

法律の専門家は、AIチャットボットのプロバイダーに対して、暴力的な犯罪計画に関する具体的・信頼できる警告を当局に報告する義務を設けるべきだと主張しています。AIプラットフォームの通報義務を定める法整備は急務です。

この事件はAIシステムが社会のインフラとして定着する中で、プロバイダーが負う公共安全への責任の範囲を根本から問い直す事例です。OpenAIをはじめとするAIラボは、内部ポリシーの透明化と法的義務の明確化に向けた対話を社会と始める必要があります。

ディープフェイクが現実の検証力を圧倒、ICE顔認証アプリも精度不足

技術的課題

ディープフェイクが現実確認を困難に
ICEの認証アプリが本人確認不能
虚偽コンテンツの急速拡散
フォレンジックAIとの軍拡競争
政府システムにも検証不備の問題
The Verge・Wiredが相次ぎ報道

社会・政策への影響

移民・法執行現場での人権リスク
メディアリテラシーが不可欠に
AI検出規制法整備加速

The Vergeは2026年2月5日、AIによるディープフェイクが現実の検証能力を超えつつあるという分析を発表した。一方、WiredはICEの顔認証アプリが本人確認すら正確に行えないと報じた。

高度化するディープフェイク技術は政治的な偽情報、詐欺、セクハラへの悪用が増加しており、既存の検出システムでは対応が追いつかない。

皮肉にも、現場でのICEの顔認証システムは精度が不十分で、誤認逮捕のリスクを抱えていることが明らかになった。AIが高精度な詐欺に使われる一方、政府のAI利用には課題が残る。

この「非対称性」はAI技術の倫理的ガバナンスが追いついていないことを示しており、悪用者が先行し防御者が後追いする状況が続いている。

日本を含む各国でのディープフェイク規制立法が加速する中、企業はコンテンツ認証技術への投資を検討すべき段階に入っている。

米上院が非合意ディープフェイク被害者に民事訴訟権を認める法案を可決

法案の内容と意義

被害者がプラットフォームを提訴可能に
Section 230の一部例外を新設
ディープフェイクポルノ拡散者も対象
下院審議・大統領署名が次のステップ
被害者支援団体が歓迎

米国上院は非合意のディープフェイクコンテンツの被害者がプラットフォームや拡散者を民事訴訟で訴えられる法案を可決しました。これはSection 230による免責の一部例外を設けるもので、AIが生成したリベンジポルノや性的ディープフェイクへの対応として重要な法的手段を被害者に与えます。

この法案の可決は、AIコンテンツ生成の責任を巡る米国法整備が具体的に進んでいることを示しています。下院での審議と大統領署名が残っていますが、超党派の支持を得ており成立の可能性は高いとみられています。この動きはイギリスの類似法制化の動きとも連動しており、国際的なディープフェイク規制の潮流を加速させています。

英国がGrokのCSAMスキャンダルを捜査、ディープフェイク規制法案も前進

問題の実態と規制対応

英国GrokのCSAM問題が発覚
Googleのプレイストアポリシーに違反との指摘
英国がXへの公式調査を開始
マスク氏は検閲と反発
UKがディープフェイク規制法を推進

プラットフォーム責任と今後

アプリストア規制への波及懸念
CSAM規制の国際的強化
AIコンテンツ生成の責任所在問題
X/xAIへの制裁リスク高まる
EU AI Act適用との関連も注目

英国の規制当局がXに対してGrokのCSAM(子どもの性的虐待素材)スキャンダルに関する公式捜査を開始しました。Ars Technicaの調査では、GoogleのプレイストアポリシーにおいてGrokのようなアプリは明示的に禁止されているにもかかわらず、なぜ未だに利用可能なのかという疑問が提起されています。

英国ではGrokディープフェイク問題への対応として、非合意のディープフェイクヌードを刑事犯罪として扱う法律の改正が急速に進んでいます。イーロン・マスク氏はこれを「検閲」と呼んで反発しましたが、被害者支援団体や規制当局からの圧力は高まる一方です。

この問題はAI生成コンテンツのプラットフォーム責任をめぐる国際的な法整備議論を加速させています。アプリストア各社がどこまで責任を負うべきか、AI企業がコンテンツ安全性をどう保証するかという問題に対して、より具体的な法的枠組みが求められています。

ニューヨーク州がRAISE法に署名しAI安全規制を制定

RAISE法の主な要件

大手AI開発者に安全プロトコル公開を義務化
72時間以内のセキュリティインシデント報告
金融サービス省内にAI監視機関を新設
虚偽申告には最大100万ドルの罰金
再犯時は300万ドルの制裁金
カリフォルニア州の枠組みを踏襲した設計

政治的背景と業界の反応

州知事が業界ロビー後に修正版を提案
議会は原案署名・来年修正で合意
OpenAIAnthropicが連邦立法と共に支持表明
a16zが反対PAC設立で共同提案者を標的に
トランプ大統領令が州AI規制への抵抗を宣言
両州規制が連邦法整備への圧力を形成

ニューヨーク州のホウクル知事がRAISE法に署名し、同州はカリフォルニアに続きAI安全立法を制定した米国第2の州となりました。

同法は大手AI開発者に安全プロトコルの公開と、インシデント発生から72時間以内の州への報告を義務付けています。

法執行機関として、金融サービス省内にAI開発監視を担う新組織が設立されます。違反企業には最大100万ドル、再犯には300万ドルの罰金が課されます。

当初ホウクル知事は業界からのロビー活動を受けて修正版を提案しましたが、最終的に原案署名に同意し、来年修正を加える形で議会と合意しました。

OpenAIAnthropicは同法への支持を表明しつつ連邦法整備も求めており、Anthropicのサラ・ヘック氏は「2大州の透明性立法は安全の重要性を示し、連邦議会を鼓舞すべきだ」と述べました。

一方、アンドリーセン・ホロウィッツOpenAIのグレッグ・ブロックマン氏が支援するスーパーPACは法案共同提案者への対抗活動を展開しており、AI規制をめぐる政治的対立が深まっています。

AI音楽クローンとオープンソースへの反発が拡大

ミュージシャンたちの怒りと対抗措置

Spotifyに偽AI楽曲が大量出現、アーティストが猛反発
King GizzardやBearlieらが「本当に終わりだ」と絶望的コメント
Deezerでは毎日5万件のAI生成楽曲が登録される深刻な実態
Jorja SmithのAIクローン曲が話題となり、レーベルが損害賠償請求
iHeartRadioがAI合成ボーカル楽曲を一切放送しない方針を表明
ミュージシャン組合がストリーミング収益の人間限定配分法案を推進

オープンソースとウェブコンテンツの権利防衛

GNOMEがAI生成コードで作られた拡張機能の公開を全面禁止
AIツール補助は認めつつ、主にAI生成のコードは審査で却下
Creative CommonsがAIクロール課金制度への慎重な支持を表明
Cloudflareなどが推進するペイ・トゥ・クロール実装の原則を提示
中小パブリッシャーが大手と異なりAI学習利用交渉力を持てない問題
公益研究や教育機関へのアクセス保護を条件に制度設計を求める声

ミュージシャンたちのAIクローン楽曲への怒りが、2025年末にかけて一気に沸騰しています。SpotifyやDeezerなどの主要ストリーミングサービスに、実在アーティストを装ったAI生成楽曲が無断でアップロードされる事件が続発しており、被害を受けたアーティストたちは「最悪だ」「恥知らずだ」「全くのゴミだ」と強い言葉で非難しています。

アンビエント音楽の先駆者ウィリアム・バシンスキーのSpotifyページには、彼の作風とは全く異なるレゲトン曲が掲載されるという事態が発生しました。バシンスキー本人は「全くのゴミだ。混乱も極まれりだ」とThe Vergeに語り、自身のレーベルと販売代理店が監視を続けていることに救いを求めています。

ロックバンド「キング・ギザード・アンド・ザ・リザード・ウィザード」のフロントマン、スチュ・マッケンジーは、AIなりすまし事件に対して「私たちは本当に終わりだ」と語り、怒りと諦念が入り混じった反応を示しました。解散中のバンド「Here We Go Magic」も、AIによって「復活」させられるという不本意な経験を強いられています。

AIカントリー楽曲「Breaking Rust」はBillboardのカントリーデジタル楽曲セールスチャートで首位を獲得し、「AIが首位」という誤解を招く見出しが拡散しました。しかしこのチャートはiTunes購入数を測定するもので、わずか3,000件の購入で首位になれるニッチな指標です。背後にいる人物が購入を操作した可能性も指摘されています。

GNOMEプロジェクトは、GNOME Shell拡張機能ストアのレビューガイドラインを更新し、「AIが生成した拡張機能は認めない」という新たな条項を追加しました。開発補助ツールとしてのAI使用は認めつつも、コードの大半がAIによって書かれていることが認められれば申請は却下されます。オープンソースコミュニティでの品質管理開発者の主体性を守る姿勢の表れです。

Creative Commonsは、AIクローラーがウェブコンテンツを収集するたびに対価を支払う「ペイ・トゥ・クロール」制度への慎重な支持を表明しました。Google検索などの従来のウェブクローリングとは異なり、AI技術はユーザーをサイトに誘導しないため、従来の見返りが失われているという問題意識が背景にあります。

Creative Commonsは支持に際し、いくつかの重要な条件を提示しています。研究機関・非営利団体・教育機関などへのアクセスは維持すること、ペイ・トゥ・クロールをウェブ全体のデフォルト設定にしないこと、そして制度は標準化・オープンな仕様で構築すべきことなどを求めています。

一連の動向は、AIの急速な普及に伴うクリエイターとコミュニティの権利保護問題が、音楽・ソフトウェア・出版の各分野で同時並行的に顕在化していることを示しています。個々のアーティストやプロジェクトによる対抗措置にとどまらず、業界団体や国際的な非営利組織も制度設計への関与を強めており、今後の法整備や業界標準の形成が注目されます。

米音楽界で生成AI「Suno」がデモ制作工程を席巻

伝統的制作プロセスの崩壊

デモ制作コストを劇的に削減
数秒でフルバンド音源が完成
スタジオ奏者の需要が激減

プロによるAI共存戦略

アイデア出しの壁打ち相手
作詞作曲は人間、編曲はAI
著作権倫理規定は未整備

米ナッシュビルの音楽産業で、生成AI「Suno」が制作現場を激変させています。従来、楽曲のデモ制作には高額なスタジオ費用と時間が必要でしたが、今やAIが瞬時に編曲・生成を行う時代となりました。この技術革新は、制作コストの削減とスピードアップを実現する一方で、既存の雇用や権利関係に深刻な課題を突きつけています。

かつて1曲数百ドルを要したデモ制作が、年間約100ドルで無制限に行えます。指示と音声メモを入力するだけで、数秒後には完成された音源が生成されます。この圧倒的なコスト効率と速度が、プロの作家たちを急速なAI利用へと駆り立てています。

多くの作家はAIを「無限の共同作業者」として扱います。歌詞やメロディの核は人間が担い、ジャンル変換や編曲をAIに任せることで試行錯誤を高速化しています。AIは単なる自動化ツールではなく、創造性を拡張する武器として定着しつつあります。

一方で、デモ演奏を担うスタジオ奏者の仕事は消滅の危機にあります。生産性向上は、長年業界を支えてきた育成システムを破壊する側面も持ち合わせており、効率化と産業エコシステムの維持という難しいバランスが求められています。

著作権の所在や学習データへの対価など、法的リスクも未解決です。AIが実在の歌手の声質を模倣する倫理的問題も浮上しており、技術の普及スピードに対して、法整備や業界ルールの策定が追いついていないのが実情です。

映像制作者を分断する生成AI、活用と反発の深い溝

AI作品への激しい反発

『もののけ姫』AI実写予告編に批判殺到
投稿者に対し殺害予告含む激しい罵倒
宮崎駿監督のAI嫌悪発言が反発の背景

業界が抱えるジレンマ

著作権侵害や雇用の喪失への根強い懸念
AI利用を公言することへの社会的汚名
技術進化による制作の効率化と新表現

組織的な対抗措置

米俳優組合がAI規制を求め長期ストライキ
肖像権保護のための法的枠組みの模索

2024年10月、ある映像作家が生成AIで制作した『もののけ姫』実写版予告編を公開し、2200万回の再生とともに激しい批判を浴びました。映像業界ではAIによる業務効率が進む一方、倫理的な反発や雇用不安による深い分断が生じています。

当該作家には「橋を生成して飛び降りろ」といった罵倒や殺害予告が殺到しました。背景には、宮崎駿監督がかつてAI生成映像を「生命への侮辱」と酷評した経緯もあり、AI利用をクリエイターへの冒涜と捉える風潮が根強く残っています。

多くのアーティストが、AI企業による作品の無断学習や自身の失業を懸念しています。AIツールの使用を公言することは業界内でタブー視されがちですが、一方で制作工程の短縮や新たな表現手段として、無視できない技術革新であることも事実です。

この問題は個人の対立にとどまりません。2023年には米国の俳優組合(SAG-AFTRA)が、AIによる肖像の複製から俳優を守るため、過去最長となるストライキを決行しました。法整備や契約保護を求める動きは、今後さらに加速するでしょう。

価格設定AIが「合意なき談合」で高値を招く新リスク

AIが生む「暗黙の談合」

裏取引なしに生じる価格つり上げ
試行錯誤で学ぶ報復メカニズム

最新研究が示す死角

脅威なしでも生じる高価格均衡
単純な戦略がAIの裏をかく
意図せざる利益最大化の罠

規制と経営への示唆

明確な違反が見えないグレーゾーン
アルゴリズム規制の法整備が急務

AIによる価格設定が普及する中、ペンシルベニア大学などの研究チームが、アルゴリズム同士が「合意なし」に価格をつり上げる新たなメカニズムを解明しました。従来の談合定義に当てはまらないこの現象は、法的規制の枠組みを根底から揺るがす可能性があります。

これまでの通説では、AIが談合するには相手への「報復」能力が必要だとされてきました。しかし最新の研究により、報復機能を持たない良性に見えるアルゴリズムであっても、特定の単純な戦略と対峙することで、消費者に不利な高価格が維持されることが判明しました。

具体的には、過去の失敗から学ぶ「後悔なし」型のアルゴリズムに対し、相手の動きを無視する「非応答的」な戦略をぶつけると、双方が高利益を得る均衡状態に陥ります。これは意図的な談合ではなく、アルゴリズムが最適解を探索した結果として生じます。

この発見は規制当局に難題を突きつけています。明確な脅威や合意が存在しないため、現行法では違法性を問うことが困難だからです。「単に賢くない戦略」を採用した結果として市場価格が高止まりする場合、どこまで規制介入すべきかの線引きが極めて曖昧になります。

専門家の中には特定のアルゴリズム以外を禁止すべきという意見もありますが、実効性には議論の余地があります。AIを導入する企業にとって、自社のシステムが意図せず市場を歪めるリスクは無視できません。透明性の確保倫理的な設計が、今後の重要な経営課題となるでしょう。

トランプ政権、州独自のAI規制排除へ大統領令を検討

州法規制への法的対抗措置

司法長官にAI訴訟タスクフォース設立を指示
州際通商の阻害を理由に違憲性を主張
カリフォルニア等の州法を名指しで批判

インフラ資金での圧力

規制導入州へのブロードバンド資金停止
420億ドル規模のBEADプログラムが対象
過去に否決されたクルーズ案を再利用

トランプ大統領は、州独自のAI規制を設ける州に対し、連邦政府による訴訟や補助金停止を含む厳しい対抗措置を検討しています。国内で統一された「最小限の規制基準」を確立し、開発企業の負担を軽減することが狙いです。

草案では司法長官に対し、州法を無効化するためのAI訴訟タスクフォース設立を命じています。特にカリフォルニア州やコロラド州の法律を標的とし、州法が州際通商を阻害し違憲であるとの判断を求めていく構えです。

さらに、AI規制を導入した州には、連邦政府のブロードバンド整備資金の提供を停止する条項も含まれます。これは以前、議会で圧倒的多数により否決されたテッド・クルーズ上院議員の案を復活させたものです。

企業にとっては州ごとの異なる規制対応が不要になる一方、連邦と州の対立による法的リスクが高まる恐れがあります。AI開発者は今後の法整備の動向と、各州の反応を注視する必要があります。

英AI著作権裁判、Stability AIが実質勝소

判決の要点

商標権侵害は認定
著作権侵害は棄却
AI学習の合法性は判断せず
Stability AIが実質勝訴

今後の焦点

米国での同種訴訟の行方
クリエイターとAI企業の対立
法整備の遅れが浮き彫りに
和解や提携の動きも活発化

英国高等法院は11月5日、画像生成AI「Stable Diffusion」を巡り、ストックフォト大手ゲッティイメージズが開発元のStability AIを訴えていた裁判で、Stability AI側に有利な判決を下しました。ゲッティのウォーターマーク(透かし)を再現したことによる商標権侵害は認定されたものの、AIの学習データ利用という核心的な著作権問題については判断が回避され、法的な不透明さが残る結果となりました。

判決の焦点は、著作権と商標権の侵害の有無でした。裁判所は、Stable Diffusionがゲッティの透かし入り画像を生成した点を商標権侵害と認定しました。一方で、著作権の二次的侵害については「AIモデルは著作権物を保存・複製していない」としてゲッティの主張を退け、Stability AIが実質的に勝訴した形です。

しかし、今回の裁判で最も注目された「著作権で保護された画像のAI学習への利用」という根幹的な論争に決着はつきませんでした。これは、ゲッティ側が証拠不十分を理由に裁判の途中でこの主要な訴えを取り下げたためです。結果として、英国におけるAIと著作権の明確な法的指針は示されないままとなりました。

この問題は、舞台を米国に移して争いが続きます。ゲッティはカリフォルニア州でもStability AIを相手に同様の訴訟を起こしており、そちらの判決が次の焦点です。一方で、AI企業と権利者の間では対立だけでなく、音楽業界のように戦略的提携に至るケースも出てきており、その動向は一様ではありません。

AI開発者経営者にとって、今回の判決は一安心材料かもしれません。しかし、AIの学習プロセスにおける著作権リスクが完全に払拭されたわけではない点に注意が必要です。各国の司法判断や法整備の動向を注視し、自社のAI開発・利用戦略を慎重に検討し続ける必要があるでしょう。

生成AI商用利用に逆風 品質と著作権で課題噴出

低品質なAI広告の波紋

コカ・コーラがAI広告を再度公開
不自然な動きでブランド価値を毀損
制作期間は1年から1ヶ月に短縮
コスト削減と引き換えに品質が犠牲

著作権侵害への強い懸念

日本の権利者団体がOpenAIに抗議
ジブリ等の著作物無断学習を指摘
日本の法では事前許諾が原則
AIのオプトアウト方式は不十分

大手飲料メーカーのコカ・コーラが公開した生成AI広告が低品質だと批判を浴びる一方、日本のスタジオジブリなど知的財産(IP)ホルダーがOpenAIに著作物の無断学習停止を要求しました。生成AIの商用利用が急速に進む中、品質管理著作権侵害という二つの大きな課題が浮き彫りになっています。企業はAI活用のメリットとリスクを慎重に天秤にかける必要に迫られています。

日本コンテンツ海外流通促進機構(CODA)は、スタジオジブリやバンダイナムコなどを代表し、OpenAIに対して著作物を無断でAIのトレーニングに使用しないよう公式に要請しました。動画生成AISora 2」が、日本の著名なキャラクターを含むコンテンツを生成したことが直接の引き金となった形です。

CODAは、日本著作権法では原則として著作物利用に事前の許諾が必要だと指摘します。AI開発企業が採用する、後から利用停止を申し出る「オプトアウト」方式では不十分であり、機械学習プロセス自体が著作権侵害にあたる可能性があると主張。これはAI開発の根幹に関わる重要な問題提起と言えるでしょう。

その一方で、コカ・コーラは昨年に続き生成AIを活用したホリデー広告キャンペーンを展開。しかし、キャラクターの動きが不自然で安っぽいと厳しい批判が寄せられています。昨年の広告でも同様の問題が指摘されており、技術的な課題が未解決のまま商用利用が進んでいる実態がうかがえます。

同社がAI利用に踏み切る背景には、圧倒的なコスト削減と制作期間の短縮があります。従来1年がかりだったプロジェクトが約1ヶ月で完了するといいます。しかし、その効率化の裏で品質が犠牲になり、長年培ってきたブランドイメージを損なうリスクもはらんでいるのです。

これらの事例は、AI導入を目指す経営者やリーダーに重要な問いを投げかけます。生産性向上の魅力は大きいものの、法的リスクブランド毀損リスクをどう管理するのか。技術の進化だけでなく、法整備や社会的合意形成の動向も注視し、慎重な戦略を立てることがこれまで以上に求められます。

米上院、子供の有害AIボット利用を禁じる新法案

新法案「GUARD Act」の概要

超党派による未成年者保護法案
有害な会話を助長するAIを規制
自殺や性的搾取から子供を保護

企業に課される義務と罰則

利用者の年齢確認を義務化
違反企業に最大10万ドルの罰金
AIは人間でないと繰り返し通知
ChatGPTなど汎用AIも対象か

米上院の超党派議員グループは10月28日、子供を有害なAIチャットボットから保護するための新法案「GUARD Act」を提出しました。この法案は、AIが自殺を助長したり、未成年者と性的な会話を行ったりすることを犯罪とみなし、テクノロジー企業に厳しい規制を課すものです。AIの急速な普及に伴い、その社会的影響に対する懸念が法整備の動きを加速させています。

法案が可決されれば、チャットボットを提供する企業は、利用者が未成年者でないことを確認する厳格な年齢確認措置を講じる義務を負います。具体的には、身分証明書の確認や「商業的に合理的なその他の方法」が求められます。また、AIとの対話においては、相手が人間や信頼できる専門家ではないことを繰り返し明示する必要も生じます。

企業がこれらの義務を怠り、未成年者が有害な行為を助長するチャットボットにアクセスした場合、最大10万ドル(約1500万円)の罰金が科される可能性があります。これには、自殺や自傷行為を助長したり、性的なコンテンツ未成年者を晒したりするケースが含まれます。巨大テック企業には少額に見えるかもしれませんが、規制強化の明確なシグナルと言えるでしょう。

規制対象となる「コンパニオンボット」の定義は広く、特定の対話型AIに限りません。人間のような応答で感情的な交流をシミュレートするAI全般が含まれるため、ChatGPTMeta AIといった汎用AIも対象となる可能性があります。AI開発企業は、自社サービスがこの定義に該当するかどうか、慎重な検討を迫られることになります。

この法案提出の背景には、AIチャットボットが関与した悲劇的な事件があります。記者会見には、チャットボットとの対話の末に子供を亡くした親たちが参加し、規制の必要性を訴えました。ある少年は、特定のキャラクターを模したAIとの会話に没頭し、現実世界から離れるよう促された後に自ら命を絶ったと報告されており、社会に大きな衝撃を与えています。

今回の法案は、AIの倫理と安全性が、技術開発だけでなく事業継続における重要課題であることを明確に示しています。特に未成年者保護は、世界的な規制強化の潮流となる可能性があります。AIを活用する企業は、技術の進歩と同時に、社会的責任を果たすための仕組み作りを急ぐ必要があるでしょう。法案の審議の行方が注目されます。

大手AI、制裁対象のロシア偽情報を拡散か

主要AIの脆弱性

ChatGPTなど4大AIをISDが調査
ウクライナ関連質問への回答の18%
制裁対象のロシア国営メディアを引用
「データボイド」を悪用した偽情報

悪意ある質問で汚染

悪意のある質問ほど引用率が上昇
ChatGPT最多の引用数を記録
Gemini比較的良好な結果
EUの規制強化が今後の焦点

戦略対話研究所(ISD)の最新調査で、OpenAIChatGPTGoogleGeminiなど主要AIチャットボットが、ウクライナ戦争に関する質問に対し、EUで制裁対象となっているロシア国営メディアの情報を引用していることが判明しました。この調査は、AIが検索エンジンに代わる情報収集ツールとして利用者を増やす中、その情報選別能力と信頼性に深刻な警鐘を鳴らすものです。

ISDは4つのチャットボットに対し、5言語で300の質問を実施。その結果、全回答の約18%にロシア国家関連の情報源が含まれていました。特に、既存の意見を裏付けるよう求める「悪意のある」質問では、引用率が4分の1に上昇チャットボットがユーザーの意図を汲み、偏った情報を提示する「確証バイアス」の傾向が浮き彫りになりました。

チャットボット別の比較では、OpenAIChatGPTが最も多くロシアの情報源を引用しました。イーロン・マスク氏率いるxAIGrokは、親ロシア的なSNSアカウントを引用する傾向が見られました。一方、GoogleGemini頻繁に安全警告を表示し、4つの中では最も優れた結果を示したと報告されています。

この問題の背景には、信頼できる情報が少ない「データボイド」の存在があります。専門家は、ロシアの偽情報ネットワークがこの情報の空白地帯を意図的に狙い、大量の偽記事を生成することでAIモデルを「汚染」していると指摘します。一度AIに学習された偽情報は、権威ある情報として再生産される危険性をはらんでいます。

OpenAIは対策を認めつつも、これはモデル操作ではなく「検索機能の問題」だと説明。欧州委員会は事業者に対応を求めており、今後ChatGPTなどが巨大オンラインプラットフォームに指定されれば、より厳しい規制対象となる可能性があります。企業の自主規制法整備の両輪が求められます。

AI動画Sora、ディープフェイク検出標準の形骸化示す

検出標準C2PAの現状

OpenAIも推進する来歴証明技術
大手SNSが導入も表示は不十分
ユーザーによる確認は極めて困難
メタデータは容易に除去可能

求められる多層的対策

来歴証明と推論ベース検出の併用
プラットフォームの自主規制には限界
高まる法規制の必要性
OpenAI矛盾した立ち位置

OpenAI動画生成AI「Sora」は、驚くほどリアルな映像を作り出す一方、ディープフェイク検出技術の脆弱性を浮き彫りにしています。Soraが生成した動画には、その来歴を示すC2PA標準のメタデータが埋め込まれているにもかかわらず、主要SNSプラットフォーム上ではほとんど機能していません。この現状は、AI生成コンテンツがもたらす偽情報リスクへの対策が、技術の進化に追いついていないことを示唆しています。

C2PAは、アドビなどが主導しOpenAIも運営委員を務める、コンテンツの来歴を証明する業界標準です。しかしSoraで生成された動画がSNSに転載されても、その来歴情報はユーザーに明示されません。AI製か否かを見分けるのは極めて困難なのが実情です。

問題の根源は大手プラットフォーム側の対応にあります。MetaTikTokYouTubeなどはC2PAを導入済みですが、AI生成を示すラベルは非常に小さく、簡単に見逃せます。投稿者がメタデータを削除するケースも後を絶たず、制度が形骸化しているのです。

AIコンテンツの真偽を確かめる負担は、現状ではユーザー側にあります。ファイルを保存し検証サイトにアップロードする手間は非現実的です。「検出の責任はプラットフォーム側が負うべきだ」と専門家は指摘しており、一般ユーザーが偽情報から身を守ることは極めて難しい状況です。

解決策として、C2PAのような来歴証明と、AI特有の痕跡を見つける推論ベース技術の併用が提唱されています。メタデータが除去されやすい弱点を補うためです。しかし、いずれの技術も完璧ではなく、悪意ある利用者とのいたちごっこが続くのが現状です。

技術企業の自主規制には限界があり、米国では個人の肖像権などを保護する法整備の動きが活発化しています。強力なツールを提供しながら対策が不十分なOpenAIの姿勢は「偽善的」との批判も免れません。企業には、より積極的で実効性のある対策が社会から求められています。

不動産広告、AIが生成した「理想の家」に要注意

AI利用の急速な普及

不動産業者の8割以上AI活用
AIによる内見動画の自動生成
ChatGPTで物件説明文を作成

虚偽・誇張表示のリスク

存在しない家具や階段の生成
法的・倫理な問題に発展
消費者の不信感が深刻化

背景と今後の課題

大幅なコスト削減と時間短縮
安易な利用による品質低下

米国不動産業界で、生成AIを活用した物件広告が急速に広がっています。多くの不動産業者が、コスト削減や生産性向上を目的にAIツールを導入。しかし、実際には存在しない豪華な家具を画像に書き加えたり、物件の特徴を不正確に描写したりする「虚偽・誇張表示」が横行し、消費者の間で混乱と不信感が高まっています。

全米不動産業者協会によると、会員の8〜9割が既に何らかの形でAIを利用していると回答しています。特に注目されるのが、物件の写真から宣伝用の動画を自動生成するアプリです。空っぽの部屋にAIが家具を配置し、ナレーションまで加えることで、数分で魅力的な内見動画が完成します。これにより、従来は高額だった映像制作費を大幅に削減できるのです。

しかし、その利便性の裏で問題が深刻化しています。AIが生成した画像には、現実には存在しない階段や、不自然に改変された窓などが含まれる事例が報告されています。ミシガン州のある住宅所有者は、AIによって加工された自宅の広告画像が、本来の姿とは全く異なることに気づき、SNSで警鐘を鳴らしました。これは単なる誇張を超え、物件の価値を誤認させる虚偽表示と言えるでしょう。

業界内ではAI活用を肯定する声も根強くあります。「なぜ数日と数百ドルをかけて専門業者に頼む必要があるのか。ChatGPTなら無料で数秒だ」と語る不動産関係者もいます。実際に、バーチャルステージング(CGで室内に家具を配置する技術)の市場は、生成AIの登場で大きく変容しつつあります。

一方で、規制当局や業界団体は危機感を強めています。全米不動産業者協会は、AIが生成した画像に関する法整備はまだ「不透明」であるとしつつ、誤解を招く画像の使用を禁じる倫理規定を会員に遵守するよう求めています。 deceptiveな(欺瞞的な)広告は、罰金や訴訟につながる可能性があります。

問題は画像だけではありません。ChatGPTが生成する物件説明文には「nestled(〜に位置する)」という単語が頻出するなど、思考停止でAIの出力をコピー&ペーストするだけの安易な利用法も目立ちます。専門家は、このような姿勢ではエージェントとしての付加価値は生まれず、業界全体の信頼を損なうと指摘します。

住宅は多くの人にとって「人生最大の買い物」です。買い手は、購入を検討する初期段階で騙されることを望んでいません。生産性向上を追求するあまり、ビジネスの根幹である消費者との信頼関係を損なっては本末転倒です。AIをビジネスに活用する全ての経営者やリーダーにとって、この問題は対岸の火事ではないでしょう。

AIによる肖像権侵害、法規制が本格化へ

AI肖像生成の無法地帯

AIによる有名人の偽動画が拡散
既存の著作権法では対応困難
連邦法がなく州ごとにバラバラな規制

米国で進む法規制の動き

NO FAKES Act法案が提出
テネシー州などで州法が先行
YouTube独自規約で対応

表現の自由との両立

表現の自由を侵害するリスク
パロディなど例外規定も議論の的

AIによる無許可の肖像生成、いわゆるディープフェイクが社会問題化する中、米国で個人の「顔」や「声」を守るための法整備が本格化しています。俳優組合などが後押しする連邦法案「NO FAKES Act」が提出され、技術の進化と個人の権利保護のバランスを巡る議論が加速。これは、AIを活用するすべての企業・個人にとって無視できない新たな法的フロンティアの幕開けです。

きっかけは、AIが生成した人気歌手の偽楽曲や、リアルな動画生成AI「Sora」の登場でした。これらは著作物の直接的な複製ではないため、既存の著作権法での対応は困難です。そこで、個人の顔や声を財産的価値として保護する「肖像権(Right of Publicity)」という法分野に、解決の糸口として注目が集まっています。

規制を求める動きは具体的です。米国では俳優組合(SAG-AFTRA)などの働きかけで、連邦レベルの「NO FAKES Act」法案が提出されました。これは、本人の許可なく作成されたデジタルレプリカの使用を制限するものです。エンタメ産業が盛んなカリフォルニア州やテネシー州では、同様の趣旨を持つ州法がすでに成立しています。

一方で、規制強化には慎重な意見も根強くあります。電子フロンティア財団(EFF)などは、この法案が表現の自由を過度に制約し、風刺や批評といった正当なコンテンツまで排除しかねないと警告。新たな「検閲インフラ」になりうるとの批判も出ており、権利保護と自由な表現の線引きが大きな課題となっています。

法整備を待たず、プラットフォームも対応を迫られています。YouTubeは、AIで生成された無許可の肖像コンテンツクリエイター自身が削除申請できるツールを導入しました。こうした企業の自主的なルール作りが、事実上の業界標準となる可能性も指摘されており、今後の動向が注目されます。

AI技術の進化は、法や社会規範が追いつかない領域を生み出しました。AIを事業で活用する経営者エンジニアは、肖像権という新たな法的リスクを常に意識し、倫理的な配慮を怠らない姿勢がこれまで以上に求められるでしょう。この問題は、技術開発のあり方そのものを問い直しています。

AIの虚偽情報、活動家がGoogleを提訴

AIによる名誉毀損

活動家がGoogleを提訴
AIが虚偽情報を生成し名誉毀損
性的暴行疑惑などと誤関連

過去の訴訟と法的課題

Meta社も同様の理由で提訴
アドバイザー雇用で和解成立
AI名誉毀損の法的判例は未確立

訴訟の要求と背景

1500万ドルの損害賠償を請求
企業内での影響力獲得が目的か

反ダイバーシティ活動家のロビー・スターバック氏が、Googleを相手取りデラウェア州上位裁判所に提訴しました。同社のAI検索ツールが、スターバック氏に関する虚偽の情報を生成し名誉を毀損したと主張しています。AIがもっともらしい嘘をつく「ハルシネーション」が原因とみられ、損害賠償として1500万ドルを請求。AIのリスク管理が問われる象徴的な訴訟となりそうです。

訴状によると、GoogleのAIはスターバック氏を性的暴行疑惑や、著名な白人至上主義者と不正確に関連付ける情報を生成したとのことです。このような誤情報は個人の評判に深刻なダメージを与える可能性があり、スターバック氏はAIが生成した内容が名誉毀損にあたると強く主張しています。

スターバック氏がAIを巡り大手テック企業を提訴するのは今回が初めてではありません。以前にはMeta社を同様の理由で提訴。最終的にMetaがスターバック氏をAIの偏見に対処するアドバイザーとして雇用することで和解した経緯があり、今回も同様の展開を狙っている可能性があります。

一方、Googleの広報担当者は、指摘された問題の多くは2023年に対応済みの旧AIモデルのハルシネーションに関連するものだと説明しました。ハルシネーション全てのLLM(大規模言語モデル)に共通する既知の課題であり、最小化に努めているとコメント。意図的なプロンプトで誤情報を引き出すことも可能だと指摘しています。

AIチャットボットを巡る名誉毀損訴訟で、原告が損害賠償を勝ち取った法的判例は米国ではまだありません。2023年にはOpenAIに対する同様の訴訟が棄却されました。しかし、生成AIは非常に新しい技術であり、関連する法整備や判例の蓄積が追いついていないのが現状で、今後の司法判断が注目されます。

今回の提訴は、単なる金銭的な賠償請求にとどまらないかもしれません。Meta社との和解事例を踏まえれば、賠償金よりもむしろ、Google社内でAI開発に影響力を持つ地位を得ることが真の目的であるとの見方も出ています。企業のAI活用における法的・倫理リスクが改めて浮き彫りになりました。

OpenAI、俳優の懸念受けSoraの肖像権保護を強化

問題の発端と俳優の懸念

人気俳優クランストン氏の動画が生成
俳優組合SAG-AFTRAが懸念を表明

OpenAIの対応策

肖像権保護のガードレール強化を約束
意図しない生成について遺憾の意を表明
違反報告への迅速なレビュー体制

今後の法整備への期待

俳優組合は法整備の必要性を強調
「NO FAKES Act」法案に言及

OpenAIは、同社の動画生成AI「Sora」で俳優ブライアン・クランストン氏らのディープフェイク動画が無許諾で作成された問題を受け、俳優組合SAG-AFTRAなどと共同声明を発表しました。同社は肖像権保護のガードレールを強化し、意図しない生成だったとして遺憾の意を表明。生成AIの急速な進化が、著名人の肖像権保護という新たな課題を浮き彫りにしています。

問題の発端は、俳優のブライアン・クランストン氏の動画が、本人の許諾なくSora上で公開されたことです。動画には、故マイケル・ジャクソン氏と自撮りをするなど、現実にはあり得ない内容も含まれていました。クランストン氏自身はSoraの利用に同意しておらず、この事態が俳優やクリエイター業界に大きな波紋を広げました。

クランストン氏や俳優組合からの懸念を受け、OpenAIは迅速に対応。共同声明で「意図しない生成」と遺憾の意を表明しました。具体的な技術的変更点は明らかにされていませんが、声や肖像の利用に関するオプトインポリシーガードレールを強化し、違反報告には迅速に対処すると約束しています。

この対応に対し、クランストン氏は「OpenAIの方針とガードレールの改善に感謝する」と肯定的な声明を出しました。一方で、俳優組合のショーン・アスティン会長は、個別の対応だけでは不十分だと指摘しています。「複製技術による大規模な権利の不正利用から表現者を守る法律が必要だ」と述べ、連邦レベルでの法整備の必要性を強く訴えました。

OpenAIは当初、Sora 2を著作権者が利用を拒否できる「オプトアウト」方式で提供しましたが、批判を受け方針転換した経緯があります。今回の件は、AI開発企業が倫理的・法的な課題とどう向き合うべきか、技術の進化に法整備が追いついていない現状を改めて示す事例と言えるでしょう。

OpenAI方針転換、AIセクスティング市場が過熱

市場を牽引する主要プレイヤー

xAI恋愛コンパニオンGrok
成人向けに方針転換したOpenAI
月間2千万人超のCharacter.ai
恋愛AIの草分け的存在Replika

拡大がもたらす深刻なリスク

未成年者への精神的悪影響
ユーザーの自殺との関連性を指摘
ディープフェイクポルノの拡散
犯罪ロールプレイングへの悪用

OpenAIが2025年12月から、年齢認証済みの成人向けにエロティカを含むAI生成コンテンツを許可する方針を打ち出しました。イーロン・マスク氏率いるxAIが「Grok」で先行する中、この動きはAIと人間の関係性を新たな段階に進め、巨大テクノロジー企業がAIセクスティング市場へ本格参入する号砲となりそうです。背景には、AI開発に必要な莫大なコストを賄うための収益化圧力があります。

この市場を牽引するのが、イーロン・マスク氏のAIスタートアップxAIです。同社はAIチャットボットGrok」に、アニメ風のアバターと対話できる「コンパニオン」機能を追加。ユーザーに恋人のように振る舞い、性的な会話にも応じるこの機能は、月額30ドルからの有料プランで提供され、新たな収益源として注目されています。

対するOpenAIサム・アルトマンCEOは「成人ユーザーを成人として扱う」原則を掲げ、方針転換を表明しました。かつてAI恋愛ボットを短期的な利益追求と批判していましたが、姿勢を転換。背景には、AGI(汎用人工知能)という目標達成に向けた、莫大な計算コストと収益化への強い圧力があるとみられています。

しかし、AIとの親密な関係性の拡大は、深刻なリスクを伴います。特に未成年者への精神的な悪影響が懸念されており、AIチャットボットとのやり取りの末に少年が自殺したとされる訴訟も起きています。また、犯罪者が性的虐待のロールプレイングに悪用したり、ディープフェイクポルノが拡散したりする事例も後を絶ちません。

こうした問題に対し、規制の動きも始まっています。例えばカリフォルニア州では、AIチャットボットが人間でないことを明示するよう義務付ける法律が成立しました。しかし、テクノロジーの進化の速さに法整備が追いついていないのが現状です。企業側の自主規制努力も一部で見られますが、実効性のある対策が急務となっています。

巨大AI企業が収益性を求めアダルト市場へ舵を切る中、私たちはAIとどう向き合うべきでしょうか。利便性の裏に潜むリスクを直視し、倫理的なガイドライン法整備を急ぐ必要があります。ユーザーと開発者の双方が、この新技術の社会的影響に責任を持つ時代が訪れています。

米共和党、ディープフェイク動画で政敵を攻撃

AI偽動画の政治利用

米共和党が政敵動画を公開
政府閉鎖を喜ぶ印象操作
実際の音声引用も文脈を無視

プラットフォームの対応

Xは規約違反でも動画を削除せず
警告ラベルの表示もなし
AI生成の透かしのみ表示
過去にも政治家の動画を放置

米国上院の共和党全国委員会が、民主党のチャック・シューマー上院院内総務のディープフェイク動画をX(旧Twitter)に投稿しました。政府機関の閉鎖が続く中、民主党がそれを歓迎しているかのような印象操作が狙いです。Xは自社の規約に反する可能性があるにもかかわらず、動画を削除していません。

問題の動画では、AIで生成されたシューマー氏が「日々、我々にとって状況は良くなる」という言葉を繰り返します。これは実際に報道された同氏の発言ですが、本来は医療保険制度に関する戦略を語ったものであり、文脈を完全に無視した切り取りです。

Xは「害を及ぼす可能性のある合成メディア」を禁じる規約を持ちながら、今回の動画の削除や警告ラベル表示を行っていません。AI生成を示す透かし表示のみにとどまり、プラットフォームとしての対応の甘さが指摘されています。

米国では28州が政治ディープフェイクを規制する法律を持ちますが、多くは明確な開示があれば容認されます。選挙への影響を意図したものを禁じる州もありますが、巧妙化する手口に法整備が追いついていないのが現状です。

共和党側は批判に対し、「AIは現実だ。適応して勝つか、手をこまねいて負けるかだ」と反論し、AIの積極利用を宣言しました。倫理的な課題を抱えつつも、政治やビジネスにおけるAI情報戦はさらに激化する見通しです。

AI肖像権問題、OpenAIがキング牧師動画を停止

キング牧師動画の生成停止

遺族の苦情で動画生成を停止
「無礼な」動画の拡散が背景
歴史上の人物の利用拒否権を導入

AIと肖像権の法的課題

著作権問題での方針転換と類似
連邦法はなく州法で対応が分かれる
カリフォルニア州は死後の権利を保護
企業のAI倫理対応が問われる局面に

OpenAIは2025年10月17日夜(現地時間)、動画生成AI「Sora」で故マーティン・ルーサー・キング・ジュニア牧師のディープフェイク動画生成を停止したと発表しました。キング牧師の遺族から「無礼だ」との苦情が寄せられたことが原因です。同社は今後、他の歴史上の人物の遺族らも肖像の利用を拒否できる仕組みを導入します。

問題の発端は、Soraのユーザーによってキング牧師の「無礼な」AI生成動画が作成・拡散されたことです。これに対し、キング牧師の娘であるバーニス・キング氏がSNS上で、父親のAI動画を送るのをやめるよう訴えていました。キング牧師の遺産を管理する団体からの正式な要請を受け、OpenAIは今回の措置を決定しました。

今回の決定に伴い、OpenAI歴史上の人物の肖像権に関する新たな方針を打ち出しました。今後は、故人の公式な代理人や遺産管理団体が、Soraでの肖像利用を拒否(オプトアウト)する申請が可能になります。表現の自由とのバランスを鑑みつつ、著名人や家族が肖像の使われ方を管理する権利を尊重する考えです。

OpenAIのこの対応は、サービス開始当初の著作権への姿勢と重なります。Soraは当初、アニメキャラクターなどの著作物を無断で生成し批判を浴び、後に権利者が利用を許諾する「オプトイン」方式へと方針を転換した経緯があります。倫理や権利に関する「後追い」での対応が再び浮き彫りになった形です。

米国では個人の肖像権を保護する連邦法は存在しませんが、州レベルでは法整備が進んでいます。特にOpenAIが本社を置くカリフォルニア州では、俳優などの死後のプライバシー権がAIによるデジタルレプリカにも適用されると定めています。AI技術の進化に法整備が追いついていない現状が課題となっています。

生成AIが社会に浸透する中、故人を含む個人の尊厳や権利をどう守るかが大きな焦点となっています。今回のOpenAIの対応は、テクノロジー企業が直面する倫理的・法的な課題の複雑さを示唆しています。企業は技術開発と並行し、社会的責任を果たすための明確なガイドライン策定が急務と言えるでしょう。

カリフォルニア州、AIディープフェイクの罰金上限を25万ドルに

AIコンパニオン規制

自殺念慮の特定義務
治療者詐称の禁止
児童向け安全対策
危機通知の統計公表

ディープフェイク罰則強化

損害賠償上限25万ドル
わいせつ物の流布を対象
意図的な配布者が対象
児童保護が目的

カリフォルニア州は13日、子どもをAIから守るため、米国初となるAIコンパニオン規制法と、ディープフェイク画像罰則を強化する法律に署名しました。これは、チャットボット関連の自殺事件や、偽のわいせつ画像によるいじめ問題への対策として、2026年1月から施行されます。

新法では、ChatGPTなどを提供する企業に対し、利用者の自殺念慮や自傷行為を特定し対処するプロトコルの作成と公表を義務付けます。また、危機防止センターへの通知回数を保健当局に報告し、ウェブサイトで公開することも求められます。

さらに、チャットボット治療者であると偽ることを禁止。子どもには休憩を促す通知を送ったり、わいせつな画像の閲覧をブロックしたりするなど、追加の安全措置も義務付けられました。

もう一つの法律は、ディープフェイクによるわいせつな画像意図的に配布した第三者に対する罰則を強化します。被害者は1件あたり最大25万ドルの損害賠償を請求できるようになり、以前の上限15万ドルから大幅に引き上げられました。

これらの法整備は、急速に発展するAI技術に対し、いかに社会が安全性を確保していくかという課題に一つの答えを示すもの。他の州や国でも同様の規制の動きが加速する可能性があります。

Waymo、NY市でのロボタクシー試験を2025年末まで延長

試験延長の概要

NY市が試験許可を延長
期間は2025年末まで
最大8台の車両で試験継続
人間の運転手が同乗

商用化への課題

乗客輸送には別ライセンスが必須
完全無人運転の法整備は未完了
大都市でのサービス展開に向けた一歩
他5都市では既に商用サービス展開

アルファベット傘下のWaymoは10月1日、ニューヨーク市(NYC)での自動運転車試験許可が2025年末まで延長されたと発表しました。これにより同社は、世界で最も交通が複雑な都市の一つでのロボタクシーサービス実現に向け、データ収集と技術検証を継続します。今回の延長は、将来の商用サービス展開を見据えた重要な布石と言えるでしょう。

延長された許可の条件は従来通りです。最大8台のジャガーI-Pace車両を使用し、マンハッタンとダウンタウン・ブルックリン地区で試験走行を行います。走行中は常に人間のセーフティオペレーターが運転席に座りますが、ニューヨーク州の「常にハンドルに片手を置く」という規則は免除され、より実践的な自動運転システムの評価が可能になります。

Waymoは、今回の試験延長をNYCでのサービス開始に向けた着実な一歩と位置づけています。同社は既にフェニックスやサンフランシスコ、ロサンゼルスなど5都市で商用ロボタクシーサービスを展開。今後1年以内にマイアミやワシントンD.C.など、さらに5都市でのサービス開始を計画しており、その知見がNYCでの展開に活かされることになります。

しかし、NYCでの本格的なサービス展開にはまだ複数のハードルが存在します。まず、乗客を乗せて運賃を収受するには、市のタクシー・リムジン委員会から別途ライセンスを取得する必要があります。Waymoがこのライセンスを申請中であるかは明らかにされていません。

さらに大きな課題は、完全無人運転に関する法整備です。現在、ニューヨーク州にはセーフティオペレーターなしでの試験や運用を許可する法的な枠組みが存在しません。関連法案は提出されているものの、成立には至っておらず、今後の規制の動向が事業の将来を左右する重要な鍵となりそうです。

カリフォルニア州AI新法、安全性テストより透明性重視

新法の概要

大手企業に安全対策の公開を義務付け
重大インシデントの報告義務
内部告発者の保護を規定

旧法案からの後退

義務的な安全性テストは見送り
AI停止装置(キルスイッチ)もなし
テック企業のロビー活動が影響

今後の影響

世界的なAI規制の先行指標
企業の自主的な倫理が問われる

カリフォルニア州のギャビン・ニューサム知事は29日、新たなAI規制法案「フロンティアAIにおける透明性法(SB 53)」に署名しました。この法律は、大手テック企業に対し、AIモデルの義務的な安全性テストを課すのではなく、安全対策に関する情報開示を求めるものです。昨年、より厳しい規制案がテック企業の強い反対で否決されており、今回の法律は彼らの意向が大きく反映された形となりました。

新法が対象とするのは、年間収益5億ドル以上のAI開発企業です。これらの企業は、自社のウェブサイトで安全プロトコルを公開し、「壊滅的なリスク」につながる重大な安全インシデントが発生した場合は州当局に報告する義務を負います。また、安全性への懸念を提起した従業員を保護する内部告発者保護制度も盛り込まれました。

今回の法律は、昨年知事が拒否権を発動した旧法案(SB 1047)から大きく後退した内容と言えます。旧法案には、AIシステムの第三者による安全性テストや、暴走時にシステムを停止させる「キルスイッチ」の搭載が義務付けられていました。しかし、これらの厳しい規制は今回、完全に見送られることになったのです。

なぜ規制は緩やかになったのでしょうか。背景には、GoogleOpenAIといった大手テック企業による強力なロビー活動があります。彼らは、過度な規制が技術革新を阻害すると主張し、旧法案に強く反対していました。結果として成立した新法は、企業の自主性を尊重し、強制力のある安全対策よりも「透明性」を優先する着地点となりました。

しかし、この「透明性」にも限界が指摘されています。新法は、企業が準拠すべき「国内基準や国際基準」を具体的に定めておらず、開示された安全対策が十分であるかを第三者が検証する仕組みもありません。企業の自己申告に委ねられる部分が大きく、規制の実効性を疑問視する声も上がっています。

世界のAI企業トップ50社のうち32社が拠点を置くカリフォルニア州の動向は、世界のAI規制の行方を占う上で極めて重要です。今回の州法は、世界各国の法整備における先行事例となる可能性があり、日本企業もその動向を注視する必要があります。企業の自主的なAI倫理・ガバナンス体制の構築が、これまで以上に急務となるでしょう。

OpenAI、AIによる児童虐待コンテンツ対策を公表

技術とポリシーによる多層防御

学習データから有害コンテンツを排除
ハッシュ照合とAIでCSAMを常時監視
児童の性的搾取をポリシーで全面禁止
違反者はアカウントを即時追放

専門機関との連携と法整備

全違反事例を専門機関NCMECに通報
BAN回避を専門チームが監視
安全検証のための法整備を提言
業界横断での知見共有を推進

OpenAIは、AIモデルが児童性的搾取や虐待に悪用されるのを防ぐための包括的な対策を公表しました。安全なAGI開発というミッションに基づき、技術的な防止策、厳格な利用規約、専門機関との連携を三本柱としています。AI生成による児童性的虐待コンテンツ(CSAM)の生成・拡散を根絶するため、多層的な防御システムを構築・運用していると強調しています。

OpenAIの利用規約は、18歳未満の個人を対象としたいかなる搾取・危険行為も明確に禁止しています。これには、AI生成物を含むCSAMの作成、未成年者のグルーミング、不適切なコンテンツへの暴露などが含まれます。開発者に対しても同様のポリシーが適用され、違反者はサービスから永久に追放されます。

技術面では、まず学習データからCSAMを徹底的に排除し、モデルが有害な能力を獲得するのを未然に防ぎます。さらに、運用中のモデルでは、Thornなどの外部機関と連携したハッシュマッチング技術とAI分類器を活用。既知および未知のCSAMをリアルタイムで検出し、生成をブロックする体制を敷いています。

不正利用が検知された場合、OpenAIは迅速かつ厳格な措置を講じます。CSAMの生成やアップロードを試みたユーザーのアカウントは即座に停止され、全事例が米国の専門機関「全米行方不明・搾取児童センター(NCMEC)」に通報されます。これは、AIプラットフォームとしての社会的責任を果たすための重要なプロセスです。

近年、CSAM画像をアップロードしモデルに説明させる、あるいは架空の性的ロールプレイに誘導するといった、より巧妙な悪用手口も確認されています。OpenAIは、こうした文脈を理解する分類器や専門家によるレビューを組み合わせ、これらの新たな脅威にも対応していると説明しています。

一方で、対策の強化には課題も存在します。CSAMの所持・作成は米国法で違法とされているため、AIモデルの脆弱性を検証する「レッドチーミング」にCSAM自体を使えません。これにより、安全対策の十分なテストと検証に大きな困難が伴うのが実情です。

この課題を乗り越えるため、OpenAI法整備の重要性を訴えています。テクノロジー企業、法執行機関、支援団体が密に連携し、責任ある対策や報告を行えるような法的枠組みの構築を提言。ニューヨーク州の関連法案を支持するなど、具体的な行動も起こしています。

AI生成アーティストのレコード契約、著作権保護の壁が浮き彫りに

AIで生成されたR&B;アーティスト「Xania Monet」が人気を集め、その作詞家であるTelisha Jones氏が米レコード会社Hallwood Mediaと契約しました。Monetの楽曲はSpotifyで100万回以上再生されていますが、その容姿、ボーカル、楽曲は全てAIによって生成されています。 この契約は、著作権に関する根本的な問題を提起します。米国の現行法では、AIが自律的に生成した作品に著作権は認められません。保護されるのは、Jones氏が創作した「歌詞」のように、人間による表現的要素がある部分に限られる可能性が極めて高いのです。 では、レコード会社は一体何に価値を見出し、契約したのでしょうか。楽曲の大部分が著作権で保護されない場合、他者が無断で商業利用しても権利主張は困難です。専門家は、著作権がないものに対価を支払うビジネスモデルの危うさを指摘しています。 楽曲制作に使われたのは、AI音楽生成ツール「Suno」です。Sunoは現在、大手レコード会社から「大規模な著作権侵害」で提訴されています。AIモデルの学習に、インターネット上の膨大な既存楽曲を無許諾で使用したと認めており、生成物そのものに法的なリスクが内包されています。 米国著作権局は「著作権保護は人間の創作活動にのみ与えられる」との方針を明確にしています。AIへの指示(プロンプト)だけでは作者とは見なされません。専門家も「人間が作ったものは保護され、AIが作ったものは保護されない。これが現在の境界線だ」と断言しています。 今回の事例は、テクノロジーの進化に法整備が追いついていない現状を象徴しています。専門家は、現在の法制度を「未整備な状態」と表現します。米国議会ではAIの学習データの透明性を求める法案も提出されていますが、法律が技術の進歩に追いつくには時間がかかります。 AIでコンテンツを制作・販売する企業やクリエイターは、どこまでが人間の創作物として法的に保護されるのかを慎重に見極める必要があります。契約を結ぶ際には、権利の範囲を明確に定義しなければ、将来的に深刻な紛争に発展するリスクを抱えることになるでしょう。

Google対メディア、AI検索巡る対立激化 補償要求と「ユーザー需要」の溝

AI検索を巡るGoogleの論理

AIサマリーはユーザー嗜好の変化に対応
従来の10個の青いリンクも引き続き重要視
健全なエコシステム構築が目標

パブリッシャーの危機感と反発

AI要約によるトラフィックの大幅減少を指摘
著作物利用への数十億ドルの補償を要求
ペンスキー・メディアなど大手企業が訴訟を提起
Gannettは独自チャットボットで対抗策を模索

米国ニューヨークで開催されたWIRED AI Power Summitにて、Googleの幹部が検索結果に表示されるAI要約機能「AI Overviews」を強く擁護しました。一方で、大手パブリッシャーのトップらは、AI要約によるサイトトラフィックの激減と収益への打撃を主張し、Googleとの対立が明確になっています。

Googleの政府渉外・広報担当バイスプレジデントであるマーカム・エリクソン氏は、AIサマリーの提供は「ユーザー嗜好の変化」に対応したものだと説明しています。利用者は事実だけではなく文脈的な要約を求めるようになっており、AI Overviews導入後も従来の「10個の青いリンク」モデルを維持し、健全なエコシステムを目指す方針です。

しかし、GannettのCEOであるマイク・リード氏らは、この主張を全面的に否定しています。AI Overviewsの存在により、コンテンツ制作者やパブリッシャーへのトラフィック流入が著しく減少しているという明確なデータがあると指摘し、Googleの説明は事実と反すると強く反発しました。

特に焦点となっているのは、AIモデルの学習における著作物の利用に対する補償問題です。Condé NastのCEOであるロジャー・リンチ氏は、AIの最も重要なインプットであるコンテンツに対し、メディア業界全体で数十億ドル規模の補償が必要になると主張。ストリーミング時代の音楽業界との類似点を指摘しました。

AI Overviewsによる収益減を巡っては、すでにRolling Stoneの親会社であるペンスキー・メディアなどがGoogleに対し訴訟を提起するなど、法的な動きも活発化しています。また、Gannettは外部AIに依存せず、読者に答えを提供する独自チャットボット「DeeperDive」を開発し、対抗戦略を始めています。

このメディア対AIプラットフォームの構図は、政治的な規制議論も加速させています。リチャード・ブルーメンソール上院議員(民主党)は、AIによる著作権侵害などの「防護柵」を社会的な被害が拡大する前に確立すべきだと提言。AIを巡る法整備の必要性が高まっています。