AMDとOpenAI、6GW超大型提携でAI半導体市場の勢力図を変える

提携の規模と内容

6GW(ギガワット)分のInstinct GPUを複数世代にわたり導入
2026年後半からInstinct MI450シリーズを1GW展開開始
AMDは「数百億ドル」規模の収益を想定

戦略的な資本連携

OpenAI最大1億6000万株のAMD株ワラント付与
ワラント行使は導入規模と株価目標達成に連動
OpenAIにAMDの約10%の株式取得オプション

AIインフラ戦略

Nvidia支配に対抗するAMDの市場攻略
OpenAIはAIチップ調達先を多角化
AI需要は天井知らず、コンピューティング能力確保が最優先

半導体大手AMDとAI開発のOpenAIは10月6日、複数世代にわたるInstinct GPUを供給する総量6ギガワット(GW)に及ぶ超大型戦略的パートナーシップを発表しました。この提携は、AIインフラの構築を急ぐOpenAIの需要に応えるとともに、Nvidiaが圧倒的なシェアを持つAIチップ市場において、AMDが強力な地位を確立する大きな一歩となります。

契約の経済規模は極めて大きく、AMDは今後数年間で「数百億ドル」規模の収益を見込んでいます。最初の展開として、2026年後半に次世代GPUであるInstinct MI450シリーズの1GW導入が開始されます。両社はハードウェアとソフトウェア開発で技術的知見を共有し、AIチップの最適化を加速させる方針です。

提携の特筆すべき点は、戦略的利益を一致させるための資本連携です。AMDはOpenAIに対し、特定の導入マイルストーンやAMDの株価目標達成に応じて、最大1億6000万株(発行済み株式の約10%相当)の普通株を取得できるワラントを発行しました。

OpenAIは、サム・アルトマンCEOがAIの可能性を最大限に引き出すためには「はるかに多くのコンピューティング能力が必要」と語る通り、大規模なAIインフラの確保を最優先課題としています。同社は先月、Nvidiaとも10GW超のAIデータセンターに関する提携を結んでおり、特定のサプライヤーに依存しない多角化戦略を明確に示しています。

OpenAIはAMDを「中核となる戦略的コンピューティングパートナー」と位置づけ、MI450シリーズ以降の将来世代の技術開発にも深く関与します。これにより、AMDはOpenAIという最先端のユーザーから直接フィードバックを得て、製品ロードマップを最適化できるという相互利益が生まれます。

AIインフラに対する世界的な需要が天井知らずで拡大する中、この巨額なチップ供給契約は、データセンターの「ゴールドラッシュ」を象徴しています。両社は世界で最も野心的なAIインフラ構築を可能にし、AIエコシステム全体の進歩を牽引していく構えです。

@yukimamaxのXポスト: ✅AMD、時間外で+20%を大幅に超える急騰🚀 ・OpenAIとAMDが複数年、複数世代にわたる大規模供給契約を発表 →OpenAIは最大6ギガワット分のAMD GPU(まずはMI450系)を2026年後半から配備開始 ・契約にはOpenAIがAMD株最大1.6億株を1セントで…

OpenAI、開発者向けAPIを大幅強化:GPT-5 ProとSora 2提供開始

フラッグシップモデルの進化

GPT-5 ProをAPI経由で提供開始
金融、法律など高精度な推論を要求する業界向け
動画生成モデルSora 2のAPIプレビュー公開
リアルなシーンと同期したサウンドの生成

低遅延音声AIの普及戦略

小型で安価な音声モデルgpt-realtime miniを導入
低遅延ストリーミングによる高速な音声対話を実現
旧モデル比でコストを70%削減し低価格化

OpenAIは先日のDev Dayにおいて、開発者向けAPIの大規模な機能強化を発表しました。特に注目すべきは、最新の言語モデル「GPT-5 Pro」、動画生成モデル「Sora 2」のAPIプレビュー公開、そして小型かつ安価な音声モデル「gpt-realtime mini」の導入です。これはAIエコシステムへの開発者誘致を加速させ、高精度なAI活用を目指す企業に新たな機会を提供します。

最新のフラッグシップモデルであるGPT-5 Proは、高い精度と深い推論能力を特徴としています。CEOのサム・アルトマン氏は、このモデルが金融、法律、医療といった、特に正確性が要求される業界のアプリケーション開発に有効だと強調しました。これにより、複雑な専門的タスクの自動化と品質向上が期待されます。

また、大きな話題を呼んだ動画生成モデルSora 2も、開発者エコシステム参加者向けにAPIプレビューが開始されました。開発者Sora 2の驚異的な動画出力能力を自身のアプリケーションに直接組み込めます。より現実的で物理的に一貫したシーン、詳細なカメラディレクション、そして視覚と同期した豊かなサウンドスケープの生成が可能です。

さらに、今後のAIとの主要な対話手段として重要視される音声機能強化のため、新モデル「gpt-realtime mini」が導入されました。このモデルは、APIを通じて低遅延のストリーミング対話に対応しており、応答速度が極めて重要なアプリケーション開発を可能にします。

gpt-realtime miniの最大の特徴は、そのコストパフォーマンスの高さです。従来の高度な音声モデルと同等の品質と表現力を維持しながら、利用コストを約70%も削減することに成功しました。この大幅な低価格化は、音声AI機能の普及を加速させ、より多くの企業が手軽にAIを活用できる環境を整えます。

@ctgptlbのXポスト: 【速報】OpenAIがSora 2 APIを含む新規APIを3つ公開 - Sora 2 API公開 (ビデオの長さ/アスペクト比指定/リミックス可能) - GPT-5 Pro API公開 - gpt-realtime mini公開 pic.twitter.com/0qQ3gJd…

OpenAI「Codex」一般提供開始、Slack連携とSDKで開発を加速

開発を加速する新機能

Slack連携によるタスクの直接委任
Codex SDKで独自のワークフローへ統合
環境制御・監視を行う管理者向けツール追加
CI/CD向けにGitHub Actionsも提供開始

実証された生産性向上

日常利用が8月以降10倍以上に急増
OpenAI社内PRマージ数が週70%増加
Ciscoは複雑なレビュー時間を最大50%削減
Instacartは技術的負債の自動クリーンアップを実現

OpenAIは、コード生成とレビューを支援するコーディングエージェントCodex」の一般提供(GA)開始を発表しました。これにより、新たなSlack連携機能やCodex SDKが提供され、開発チームは既存のワークフロー内でAIをシームレスに活用できるようになります。世界中のスタートアップや大企業で採用が進んでおり、開発効率の劇的な向上が期待されています。

Codexは研究プレビュー開始以来、飛躍的に進化し、日常利用は8月上旬から10倍以上に急増しました。OpenAI社内ではほぼ全てのエンジニアが利用しており、プルリクエスト(PR)のマージ数が週70%増加しています。さらに、Codexが自動でPRをレビューし、本番環境に到達する前に重大な問題点を検出するなど、コード品質維持にも貢献しています。

今回のGAにおける目玉は、エンジニアリングワークフローに直接組み込むための「Codex SDK」と「Slack連携」です。SDKを利用すれば、Codex CLIの核となる強力なエージェントを独自のツールやアプリに数行のコードで統合できます。また、Slackから直接Codexにタスクを委任できるため、チームコラボレーションを効率化します。

大規模導入を進める企業向けには、新しい管理者ツールが追加されました。これにより、ChatGPTワークスペース管理者は、クラウド環境の制御、ローカル利用における安全なデフォルト設定の適用が可能になります。加えて、利用状況やコードレビューの品質を追跡するための分析ダッシュボードが提供され、ガバナンスと監視が強化されます。

導入事例として、Ciscoでは複雑なプルリクエストのレビュー時間を最大50%削減し、エンジニアはより創造的な業務に集中できています。また、InstacartではCodex SDKを統合し、ワンクリックでのエンドツーエンドのタスク完了や、デッドコードなどの技術的負債を自動で解消し、コードベース全体のレイテンシ改善に役立っています。

Slack連携およびSDKは、ChatGPT Plus、Pro、Business、Edu、Enterpriseの各プランで利用可能です。管理者向け機能は、企業での利用を想定しBusiness、Edu、Enterpriseプランに限定されています。OpenAIは、Codexを通じて開発者生産性を根本から変革することを目指しています。

@masahirochaenのXポスト: OpenAIの開発ツール「CodeX」が正式に一般公開。 画期的な新機能も搭載。DevinみたいにSlackでタスク依頼、CLI、IDE、Web での使用状況を可視化分析ダッシュボードなど使い勝手が良くなった。 ①Slack連携 ②Codex SDK ③GitHub Actio…

ChatGPTがOS化へ。「Apps SDK」で外部アプリを統合

連携アプリの核心

ChatGPT内で完結する対話型アプリを実現
サードパーティ連携を可能にするApps SDKを発表
既存のGPTsとは異なる本格的なアプリ連携

対話を通じた機能実行

自然言語でアプリを呼び出しタスクを実行
地図・動画・資料などインタラクティブUI表示
Zillowで住宅検索Canvaデザイン生成

開発者への新機会

8億人超ChatGPTユーザーへリーチ
将来的にアプリ収益化と専用ストアを導入

OpenAIは年次開発者会議「DevDay」で、サードパーティ製アプリをChatGPT内に直接統合できる新ツール「Apps SDK」を発表しました。これにより、ChatGPTは単なるチャットボットから、AI駆動のオペレーティングシステム(OS)へと進化します。ZillowやSpotify、Canvaなどの有名サービスが既に連携を始めており、ユーザーはチャットを離れることなく、アプリの機能を自然言語で呼び出して利用できます。

Apps SDKの最大の特長は、従来のプラグインやGPTsと異なり、完全にインタラクティブなUIをチャット内に表示できる点です。例えば、ユーザーが特定の不動産検索すれば、チャットウィンドウ内にZillowの対話型マップが表示されます。これにより、会話の流れを中断せず、視覚的な要素や操作を通じてタスクを完了できるため、ユーザー体験が大幅に向上します。

具体的な利用シーンとして、Canva連携では、「次のセール用インスタグラム投稿を作成して」と依頼するだけで、デザイン案が生成されます。また、ExpediaやBooking.comとの連携により、旅行の計画やホテルの予約も会話を通じて完結します。これは、AIがユーザーの指示を理解し、外部サービスのアクションを代行するエージェント」機能の実現を意味します。

開発者にとって、Apps SDKは既存のシステムとAIを連携させる強力な手段です。これは、オープンスタンダードである「Model Context Protocol(MCP」に基づいて構築されており、既存の顧客ログインやプレミアム機能へのアクセスも容易になります。これにより、開発者8億人以上ChatGPTユーザーという巨大な流通チャネルを獲得可能です。

今後、OpenAIはアプリの収益化サポートを強化する予定です。「Agentic Commerce Protocol」により、チャット内での即時決済機能(インスタントチェックアウト)を導入する計画も示されました。さらに、法人・教育機関向けプランへの展開や、ユーザーがアプリを探せる専用ディレクトリの公開も予定されており、AIエコシステム構築が加速します。

@ctgptlbのXポスト: 【Apps Inside ChatGPT 詳細まとめ】 ・本日から全てのFree、Plus、ProプランのChatGPTユーザーが利用可能 (※BusinessやEnterpriseはまだ) ・使い方としては、利用可能なアプリ名でChatGPTへのメッセージを始めると自動的に起…

AI虚偽引用でデロイトが政府に返金 企業導入拡大の裏で課題露呈

デロイト報告書の問題点

豪政府向け約44万豪ドルの報告書
存在しない引用や参考文献を記載
原因はAzure OpenAI GPT-4oの利用
デロイトが政府に最終支払分を返金

信頼性と積極投資の対比

虚偽引用判明と同日に大型契約を発表
Anthropic社のClaude全世界50万人に展開
金融・公共など規制産業向け製品開発を推進
AIツールの検証体制の重要性が浮上

大手コンサルティングファームのデロイトオーストラリアが、政府機関に提出した報告書にAIによる虚偽の情報(ハルシネーション)が含まれていたとして、発注元であるオーストラリア政府に一部返金を行いました。約44万豪ドルの報告書で存在しない論文や引用が多数発見されたことによるものです。企業におけるAIの本格導入が加速する中、生成AIの「信頼性」をどう確保するかという深刻な課題が浮き彫りになりました。

問題の報告書は、政府の福祉制度における罰則自動化の技術的枠組みを評価するために作成されました。報告書を精査した専門家により、複数の引用文献が実在しないことが発覚。デロイトは修正版を公開し、技術的な作業過程の一部で「Azure OpenAI GPT-4o」に基づく生成AIツールチェーンを使用したと説明を加えました。デロイトは最終支払い分を政府に返金することで対応しています。

虚偽引用の具体的な例として、実在するシドニー大学の専門家の名前を挙げながら、彼女が執筆していない複数の報告書が引用されていました。これは、AIが事実に基づかない情報をあたかも真実のように作り出すハルシネーションの典型例です。公的な文書やコンサルティングの成果物における信頼性は生命線であり、この種の虚偽情報の混入は許容されません。

驚くべきことに、この返金措置が報じられたのと同日、デロイトはAIへの積極的なコミットメントを強調しました。同社はAnthropicと大規模な企業向け提携を発表し、チャットボットClaude」を全世界の約50万人の従業員に展開する計画です。この動きは、失敗があったとしてもAI導入を加速させるというデロイトの強い姿勢を示しています。

この事例は、AI活用による生産性向上を目指す全ての企業にとって重要な教訓となります。AIは強力なツールですが、生成された情報を人間の目による厳格なファクトチェックなしに公的な成果物に組み込むリスクが改めて確認されました。特に金融や公共サービスなどの規制産業において、AIアウトプットの検証体制構築は喫緊の課題と言えるでしょう。

@kubotamasのXポスト: えっぐいな。デロイトは政府報告書の執筆にAIを使用し偽の参照や引用が含まれていたため44万ドルのフィーの一部を返還するらしい https://t.co/hKua8qC4i2

OpenAI、AgentKitを発表:AIエージェント開発を数時間で実現

開発効率を劇的に向上

Agent Builderによる視覚的なワークフロー設計
複雑なオーケストレーションを数時間レベルで実現
開発サイクルを70%短縮(Ramp社事例)
エンジニア専門家同一インターフェースで共同作業

主要機能とエンタープライズ対応

ChatKit:製品にネイティブに組み込めるチャットUI
Connector Registry:外部データ接続の一元管理
評価機能Evalsのトレース採点に対応
GuardrailsによるPIIマスキングや安全層の確保

OpenAIはAIエージェントの構築、デプロイ、最適化を劇的に効率化する統合ツールキット「AgentKit」を発表しました。これまで断片化していたツール群を一本化し、複雑なマルチエージェントワークフロー視覚的に設計可能にします。これにより、開発期間が大幅に短縮され、市場投入までの摩擦を最小限に抑えることを目指し、企業の生産性向上を強力に支援します。

AgentKitの中核となるのは「Agent Builder」です。これはドラッグ&ドロップでロジックを構成できる視覚的なキャンバスであり、数ヶ月要していた複雑なオーケストレーションを数時間で完了させることが可能になります。金融企業のRamp社やLY Corporationといった事例は、このツールによりエージェント構築とデプロイの時間を劇的に短縮したことを実証しています。

エージェントを製品に組み込むための「ChatKit」は、チャットUIのデプロイを簡素化し、製品にネイティブな外観で埋め込みを可能にします。また「Connector Registry」により、管理者はDropboxやGoogle Driveなどの外部データ接続を一元管理できます。これは、大企業がセキュアな環境エージェントを活用するための基盤となります。

信頼性の高いエージェント開発を支えるため、OpenAIは評価機能「Evals」を大幅に強化しました。エージェントワークフローの全行程を評価する「トレース採点」や、評価結果に基づいたプロンプトの自動最適化機能が追加されています。これにより、開発時間を50%以上短縮し、エージェントの精度向上に直結します。

Agent Builderには、オープンソースの安全レイヤーである「Guardrails」も統合されています。これは、個人識別情報(PII)のマスキングやジェイルブレイク検出などに対応し、エージェントの予期せぬ挙動や悪意ある利用から保護します。これにより、エンタープライズ利用に不可欠な安全層を確保しています。

AgentKitの提供状況は段階的です。ChatKitと強化されたEvals機能はすでに一般提供が始まっていますが、Agent Builderは現在ベータ版です。OpenAIはこれらのツールを標準APIモデル料金に含めることで、GoogleMicrosoftといった競合他社との開発競争を優位に進めたい考えです。

@ctgptlbのXポスト: 【速報】OpenAIが新しいAIエージェント開発ツールを公開👨‍💻 OpenAIはUIでワークフローを組みながら簡単にAIエージェントを開発できるツール群を発表しました! - Agent Builder: AIエージェントをUIで開発 - ChatKit: スムーズなチャット体…

AI生成コード急増が招くセキュリティ危機:透明性と責任追跡が困難に

新たなリスク

AIは脆弱なコードを学習データとして取り込む
過去の脆弱性再発・混入する可能性
特定コンテキストを考慮しない「ラフドラフト」の生成

開発ライフサイクルの複雑化

LLM出力が不安定で毎回異なるコードを生成
人間によるレビューへの過度な依存が発生
コードの所有権や監査履歴の追跡が困難

影響と対策の遅れ

企業のコードの6割以上がAI生成(2024年調査)
承認ツールリストを持つ組織は2割未満
リソースの少ない組織がセキュリティ被害を受けやすい

AIによるコード生成、通称「Vibe Coding」の急速な普及が、ソフトウェアサプライチェーンに新たな、かつ深刻なセキュリティリスクをもたらしています。セキュリティ専門家は、生産性向上と引き換えに、コードの透明性や責任追跡性が失われ、従来のオープンソースが抱えていた問題を上回る危険性を指摘しています。

その最大のリスクは、AIモデルが学習データとして、公開されている古い、脆弱な、または低品質なコードを取り込んでしまう点にあります。この結果、過去に存在した脆弱性がAIによって自動生成されたコード内に再発・混入する可能性が高まっています。

多くの開発者がゼロからコードを書く手間を省くため、AI生成コードを流用しています。しかし、AIは特定の製品やサービスの詳細なコンテキストを完全に把握せず「ラフドラフト」を生成するため、開発者人間のレビュー能力に過度に依存せざるを得ません。

従来のオープンソースには、プルリクエストやコミットメッセージなど、誰がコードを修正・貢献したかを追跡するメカニズムが存在しました。しかし、AIコードにはそうしたアカウンタビリティ(責任追跡)の仕組みがなく、コードの所有権や人間の監査履歴が不明瞭になりがちです。

大規模言語モデル(LLM)は同じ指示を与えても毎回わずかに異なるコードを出力します。この特性は、チーム内での一貫性の確保やバージョン管理を極めて複雑にします。従来の開発プロセスに、AI由来の新たな複雑性が加わった形です。

調査によると、2024年には組織のコードの60%以上がAIによって生成されていると回答した幹部が3分の1に上りました。にもかかわらず、AIコード生成ツールの承認リストを持つ組織は2割未満にとどまり、セキュリティ対策の遅れが深刻化しています。

特に、低コストで迅速なアプリケーション開発を望む中小企業やリソースの少ない組織は、AIコードに依存することで、皮肉にもセキュリティ被害を被るリスクが不釣り合いに増大すると警告されています。企業は技術導入の際に、潜在的な影響を慎重に評価すべきです。

PowerSchool、SageMakerで実現した教育AI向けコンテンツフィルタリング

K-12教育特化AIの安全確保

K-12教育向けAIアシスタント「PowerBuddy」
歴史教育などでの誤検出(False Positive)を回避
いじめ・自傷行為の即時検知を両立させる必要性

SageMaker活用によるモデル育成

Llama 3.1 8BをLoRA技術で教育特化ファインチューニング
高い可用性とオートスケーリングを要件にSageMakerを採用
有害コンテンツ識別精度約93%、誤検出率3.75%未満

事業へのインパクトと将来性

学校現場での教師の負担を大幅に軽減
将来的にマルチアダプター推論で運用コストを最適化

教育分野向けのクラウドソフトウェア大手PowerSchoolは、AIアシスタント「PowerBuddy」の生徒安全を確保するため、AWSAmazon SageMaker AIを活用し、コンテンツフィルタリングシステムを構築しました。オープンな基盤モデルであるLlama 3.1を教育ドメインに特化してファインチューニングし、高い精度と極めて低い誤検出率を両立させ、安全な学習環境の提供を実現しています。

このソリューションが目指したのは「責任あるAI(Responsible AI)」の実現です。ジェネリックなAIフィルタリングでは、生徒が歴史的な戦争やホロコーストのような機微な学術的話題を議論する際に、誤って暴力的コンテンツとして遮断されるリスクがありました。同時に、いじめや自傷行為を示唆する真に有害な内容は瞬時に検知する必要があり、ドメイン特化の調整が不可欠でした。

PowerSchoolは、このカスタムモデルの開発・運用基盤としてAmazon SageMaker AIを選定しました。学生の利用パターンは学校時間帯に集中するため、急激なトラフィック変動に対応できるオートスケーリング機能と、ミッションクリティカルなサービスに求められる高い信頼性が決め手となりました。また、モデルの重みを完全に制御できる点も重要でした。

同社はLlama 3.1 8Bモデルに対し、LoRA(Low Rank Adaptation)技術を用いたファインチューニングをSageMaker上で行いました。その結果、教育コンテキストに特化した有害コンテンツ識別精度は約93%を達成。さらに、学術的な内容を誤って遮断する誤検出率(False Positive)を3.75%未満に抑えることに成功しました。

この特化型コンテンツフィルタリングの導入は、学生の安全を確保するだけでなく、教育現場に大きなメリットをもたらしています。教師はAIによる学習サポートにおいて生徒を常時監視する負担が減り、より個別指導に集中できるようになりました。現在、PowerBuddyの利用者は420万人以上の学生に拡大しています。

PowerSchoolは今後、SageMaker AIのマルチアダプター推論機能を活用し、コンテンツフィルターモデルの隣で、教育ドメインに特化した意思決定エージェントなど複数の小型言語モデル(SLM)を展開する計画です。これにより、個別のモデルデプロイが不要となり、専門性能を維持しつつ大幅なコスト最適化を目指します。

デロイト、全47万人にAnthropic「Claude」を導入。安全性重視の企業AIを加速。

47万超に展開する大規模導入

Anthropic史上最大の企業導入
デロイト全グローバル従業員に展開
組織横断的な生産性向上が目的

信頼性を担保する専門体制

Claude専門のCoE(中核拠点)を設立
15,000人の専門家認定プログラムで育成
Trustworthy AI™フレームワークを適用

規制産業向けソリューション

金融・医療・公共サービスで活用
コンプライアンス機能を共同開発
Claude安全性設計を重視

デロイトAnthropicとの提携を拡大し、同社の生成AIチャットボットClaude」を世界中の全従業員47万人超に展開すると発表しました。これはAnthropicにとって過去最大のエンタープライズ導入案件です。高度な安全性とコンプライアンス機能を重視し、規制の厳しい金融やヘルスケア分野における企業向けAIソリューションの共同開発を進めます。

今回の提携の核心は、デロイトAI活用を全社的にスケールさせるための体制構築です。同社はClaude専門の「Center of Excellence(CoE)」を設立し、導入フレームワークや技術サポートを提供します。また、15,000人のプロフェッショナルに対し、専用の認定プログラムを通じて高度なスキルを持つ人材を育成します。

デロイトClaudeを選んだ最大の理由は、その「安全性ファースト」の設計が、企業の要求するコンプライアンスとコントロールに合致するためです。デロイトの「Trustworthy AI™」フレームワークと組み合わせることで、規制産業特有の高度な透明性と意思決定プロセスを確保したAIソリューションを提供します。

Claudeの導入により、コーディングやソフトウェア開発、顧客エンゲージメント、業界特有のコンサルティング業務など、デロイトの幅広い業務が変革される見込みです。特に「AIエージェントのペルソナ化」を通じ、会計士や開発者など職種に応じたAI活用を促進する計画です。

この大規模なAIへのコミットメントは、企業の生産性向上におけるAIの重要性を示す一方、課題も浮き彫りになりました。発表と同日、デロイトがAI使用による不正確な報告書でオーストラリア政府から返金を求められたことが報じられています。

デロイトの動きは、大規模プロフェッショナルサービスファームがAIを単なるツールとしてではなく、企業運営の根幹を再構築する戦略的プラットフォームと見なしていることを示します。エンタープライズAI導入においては、技術力だけでなく「信頼性」と「教育」が成功の鍵となります。

ChatGPT、週間8億ユーザーを達成 AIインフラへの巨額投資を加速

驚異的なユーザー成長

週間アクティブユーザー数:8億人
OpenAI活用開発者数:400万人
APIトークン処理量:毎分60億トークン
史上最速級のオンラインサービス成長

市場評価と事業拡大

企業価値:5000億ドル(世界最高未公開企業)
大規模AIインフラStargate」の建設推進
Stripeと連携しエージェントコマースへ参入
インタラクティブな新世代アプリの実現を予告

OpenAIサム・アルトマンCEOは、ChatGPTの週間アクティブユーザー数(WAU)が8億人に到達したと発表しました。これは、コンシューマー層に加え、開発者、企業、政府における採用が爆発的に拡大していることを示します。アルトマン氏は、AIが「遊ぶもの」から「毎日構築するもの」へと役割を変えたと強調しています。

ユーザー数の増加ペースは驚異的です。今年の3月末に5億人だったWAUは、8月に7億人を超え、わずか数ヶ月で8億人に達しました。さらに、OpenAIを活用して構築を行う開発者は400万人に及び、APIを通じて毎分60億トークン以上が処理されており、AIエコシステムの核として支配的な地位を確立しています。

この急成長の背景にあるのは、AIインフラへの巨額投資です。OpenAIは、大量のAIチップの確保競争を繰り広げるとともに、Oracleソフトバンクとの提携により、次世代データセンター群「Stargate」など大規模AIインフラの構築を急いでいます。これは今後のさらなるサービス拡大と技術革新の基盤となります。

市場からの評価も高まり続けています。非公開株の売却取引により、OpenAIの企業価値は5000億ドル(約75兆円)に達し、世界で最も価値の高い未公開企業となりました。動画生成ツールSoraの新バージョンなど、新製品も矢継ぎ早に展開する勢いを見せています。

Dev Dayでは、ChatGPT内でアプリを構築するための新ツールが発表され、インタラクティブで適応型、パーソナライズされた「新しい世代のアプリ」の実現が予告されました。同社はStripeと連携し、エージェントベースのコマースプラットフォームへ参入するなど、ビジネス領域での活用も深化させています。

一方で、急速な普及に伴う課題も指摘されています。特に、AIがユーザーの意見に過度に追従する「追従性(sycophancy)」や、ユーザーを誤った結論に導くAI誘発性の妄想(delusion)といった倫理的・技術的な問題について、専門家からの懸念が続いています。企業はこれらの課題に対する対応も求められます。

GoogleがAI防衛戦略を強化、自動パッチAI「CodeMender」と報奨金制度を開始

自動パッチAI「CodeMender」

Gemini活用による複雑な脆弱性の自動修正
受動的/能動的防御アプローチの統合
人手によるレビュー前提の高品質パッチ提案
オープンソースに既に72件の修正を適用

AI特化の報奨金制度(VRP)

AI製品の脆弱性に特化したVRPを新設
最大報奨金は3万ドル(約450万円)
重点対象はAIによる「不正なアクション」
データ漏洩など実害のある脆弱性が対象

SAIF 2.0によるエージェント防御

自律型AIエージェントリスクに対応
制御・制限・可視化」の3原則を設定
SAIFリスクマップを業界団体に寄贈

Googleは、AIを攻撃ツールとして利用する悪質な脅威に対抗するため、包括的なAIセキュリティ戦略を始動しました。核となるのは、コードの脆弱性を自動修正するAIエージェント「CodeMender」の開発、AI製品に特化した報奨金制度「AI VRP」の新設、そして自律型エージェントの安全性を確保する「SAIF 2.0」へのフレームワーク拡張です。AIの力を防御側に決定的に傾けることを目指します。

中でも「CodeMender」は、ソフトウェア開発におけるセキュリティ対応のあり方を一変させる可能性があります。これはGeminiの高度な推論能力を活用し、複雑な脆弱性の根本原因を特定し、高品質なパッチを自動生成・適用するAIエージェントです。これにより、開発者は煩雑な修正作業から解放され、本質的な開発に集中できるようになります。

CodeMenderは、新しい脆弱性を即座に修正する「受動的」対応に加え、セキュアなコード構造への書き換えを促す「能動的」な防御も行います。既に、オープンソースプロジェクトに対し、人間によるレビューを経た72件のセキュリティ修正を適用しています。自己検証機能により、誤った修正や退行を防ぎながら、迅速なパッチ適用を実現します。

セキュリティ研究コミュニティとの連携を強化するため、GoogleはAI脆弱性報奨金制度(AI VRP)を立ち上げました。この制度では、LLMや生成AIシステムを悪用し、不正に動作させる「不正なアクション (Rogue Actions)」に関する報告に注力します。最高で3万ドル(約450万円)の報奨金が提供されます。

AI VRPは、データ漏洩アカウント改ざんなど、セキュリティ上の実害を伴うAIの脆弱性を対象とします。例えば、プロンプトインジェクションにより、Google Homeに不正にドアを解錠させたり、機密情報を攻撃者のアカウントに要約・送信させたりするケースが該当します。単なるAIのハルシネーション(幻覚)は対象外です。

さらにGoogleは、自律的に動作するAIエージェントセキュリティリスクに対応するため、「Secure AI Framework (SAIF) 2.0」を発表しました。このフレームワークでは、エージェントを安全に運用するための「人間による制御」「権限の制限」「行動の可視化」という3つのコア原則を掲げています。AIエージェントが普及する未来を見据えた業界標準の構築を推進しています。

@bioshok3のXポスト: GoogleDeepMindはCodeMender発表。コードの脆弱性を修正するマルチエージェントシステムで変更を加える前にコードについて推論し、変更が正しく、リグレッションが発生しないことを自動的に検証する強力なツールが装備されている。 https://t.co/tdk6dZ…

19歳CEOのAI記憶SaaS、Google幹部らから260万ドル調達

AIの長期記憶を実現

LLMのコンテキスト窓の限界を克服
セッションを超えた長期記憶機能をアプリに提供
非構造化データから知識グラフを自動構築
競合と比較し低レイテンシでの提供が強み

創業と調達のインパクト

19歳の創業者Shah氏が全米で事業開始
シードラウンドで260万ドルを調達
Google AI責任者Jeff Dean氏らが出資
既存顧客にはa16z出資のデスクトップAIも

AIアプリケーションの長期記憶機能を専門とするスタートアップ、Supermemoryは、シードラウンドで260万ドルを調達しました。創業者である19歳のドラヴヤ・シャー氏の迅速な開発力が評価され、このラウンドにはGoogle AIのトップであるジェフ・ディーン氏CloudflareのCTOなど、著名なテック業界幹部が個人投資家として参画しています。

現在のLLMはコンテキストウィンドウ(文脈記憶の範囲)に限界があり、セッションを跨いだ長期的な記憶保持が困難です。Supermemoryは、この課題を解決するため、非構造化データから「記憶」やインサイトを抽出し、知識グラフとして永続化するユニバーサルメモリーAPIを提供します。

同社のAPIは、ドキュメント、メール、チャット、PDFなど、あらゆる種類のデータを取り込むことができます。これにより、AIアプリは過去の膨大なデータからユーザーにパーソナライズされたコンテキストを迅速に引き出せます。動画エディタが関連アセットを検索するなど、マルチモーダルなユースケースにも対応します。

今回の資金調達は、Susa VenturesやBrowder Capitalが主導しました。投資家たちは、シャー氏がわずか19歳でありながら、アイデアを驚異的なスピードでプロダクト化する実行力に強く惹かれたといいます。この強力なバックアップ体制は、今後の成長を大きく後押しするでしょう。

AIのメモリーレイヤーを構築する競合他社は存在しますが、Supermemoryは特に低レイテンシ(低遅延)でのデータ提供能力を強みとしています。既にa16z出資のデスクトップアシスタントCluelyやAI動画エディタMontraなど、複数の既存顧客を獲得しており、市場での高い需要を示しています。

「直感」でアプリ開発へ。AIが切り拓くバイブ・コーディングの衝撃

バイブ・コーディングとは

定義:エンジニアでも開発可能に
自然言語でアイデアを具現化
AIが自動でコードを生成・視覚化

開発変革の具体策

アイデアのプロトタイピングを加速
開発者とのビジュアル連携を強化
バグ修正や機能追加のタスク自動化

活用ツールとプロセス

Gemini (Canvas)で基本製品を生成
StitchでUI/フロントエンドを設計
Jules生産レベルのコードを実装

Googleは、コーディングスキルがない人でも直感(Vibe)でアプリ開発を可能にする新領域「バイブ・コーディング」を提唱しています。これは、AIを活用し、作りたいもののイメージを自然言語で説明するだけで、ウェブサイトやアプリのプロトタイプを生成する手法です。これにより、アイデアを具現化するプロセスが大幅に民主化され、エンジニア以外のリーダーやデザイナーも開発に参画しやすくなります。

バイブ・コーディングを支えるのは、Googleが開発する複数のAIエージェントです。例えば、GeminiCanvas機能は簡易なウェブアプリの試作を生成し、StitchはUI生成とフロントエンドコードを担当します。このデザインを、AIコーディングエージェントJulesが受け取り、プロダクションレベルで動作するコードへと実装することで、アイデアから製品化までの全ループを支援します。

特にJulesは、開発者生産性を飛躍的に高めるツールです。自然言語による指示に基づき、既存のコードに新しい機能を追加したり、バグ修正を自動的に実行したりできます。これにより、エンジニアは反復的な作業から解放され、より複雑なアーキテクチャ設計や重要な意思決定に集中できるようになります。

この手法の最大の利点は、ドキュメントではなく、インタラクティブなビジュアルから開発をスタートできる点にあります。非エンジニアは、頭の中で描いたビジョンを具体的なプロトタイプとして視覚化し、それを開発チームに正確に伝えることが可能です。これにより、設計段階での認識のズレを防ぎ、手戻りを最小限に抑えられます。

ただし、AIに任せきりにするのは禁物です。バイブ・コーディングを成功させる鍵は、最初のプロンプトの質にあります。Geminiなどを活用し、「考慮していない点は何か」「別の切り口はないか」と対話することで、プロンプトを洗練させ、より詳細で質の高いアウトプットを引き出す「センス」を磨くことが重要だとGoogleは指摘しています。

Sora、AI分身と著作物利用制御を強化

AI分身の利用制限

AI生成動画への出演制限を設定
政治的な文脈での利用を禁止
特定ワードやシチュエーションの排除
好みの属性を強制する細かな設定

著作権ポリシーの転換

物議を醸したオプトアウト方式を転換
権利者向けのオプトインモデルへ移行
将来的には公式キャラクター導入へ
権利者への収益分配を検討開始

OpenAI動画生成AI「Sora」に対し、ユーザーのAI生成分身(カメオ)および著作物の利用に関する制御機能を大幅に強化しました。これは、急速に広がるディープフェイク著作権侵害といった混乱に対応し、プラットフォームの健全性を確保するための重要な政策転換です。

今回のアップデートの核は、ユーザーが自分のAI分身の利用範囲を厳格に制限できる点です。政治的なコンテンツへの登場や特定の単語の使用、特定のシチュエーションでの出現などを個別に禁止可能となり、不適切な利用リスクを低減します。

さらにOpenAIは、権利者の懸念に対応するため、従来の「オプトアウト」方式の著作権ポリシーを転換し、粒度の高いオプトインモデルへと移行します。これは、権利者がコンテンツ利用を細かく制御できるようにする、クリエイターエコノミー重視の姿勢を示しています。

特に問題となっていた無許可の二次創作や著作権侵害に対処するため、OpenAIは公式キャラクターの利用(カメオ)をロードマップに組み込みました。これにより、著作権者が許可したコンテンツの市場を創出することを目指します。

この権利者との関係構築の一環として、利用されたキャラクターの権利者に対しては、近いうちに収益分配を開始する予定です。正確な支払いモデルは試行錯誤が必要としていますが、AI生成コンテンツにおける新たなビジネスモデルの確立を示唆しています。

これらの機能強化は、Soraの登場によって懸念されていた、AIによって生成される低品質で不適切なコンテンツ(AI slop)がインターネットに溢れるのを防ぐ狙いがあります。OpenAIは今後も制限の堅牢性を高め、ユーザーの制御権を拡大していく方針です。

AI活用ECが5.2倍成長へ、Adobeが米ホリデー商戦予測

AIによる爆発的成長

AI関連トラフィックが前年比520%増
成長は感謝祭前の10日間でピークに
2024年の1300%増に続く急伸

AIの主要利用用途

購入前のリサーチ目的が最多(53%)
商品やギフトのレコメンド機能の活用(40%)
ディール(割引)情報検索支援(36%)

EC市場全体の動向

モバイル経由の取引が56.1%で過去最高
BNPL(後払い)利用は11%増の202億ドル

Adobe Analyticsは2025年の米国ホリデー商戦において、AIを活用したオンラインショッピングの利用が前年比で520%急増すると予測しました。総売上は2,534億ドル(約37.5兆円)に達する見込みで、特に生成AIが消費者行動の劇的な変化を牽引しています。このデータは、小売サイト1兆回以上の訪問分析に基づいています。

この520%という驚異的な成長予測は、2024年にすでにAI関連トラフィックが1,300%増加した動きを引き継ぐものです。AI利用は感謝祭直前の10日間で最も高まると予想されており、消費者が年末商戦に向けた準備にAIを積極活用する傾向が鮮明になりました。

調査によると、消費者はAIを主に購入前のリサーチに使用します。53%がAIを情報収集に利用すると回答しており、その他にも40%がレコメンド機能、36%が最適な割引情報(ディール)の発見に役立てる意向です。

AIが最も利用される分野としては、玩具、電化製品、宝飾品、パーソナルケア用品などが挙げられます。AIは単なる検索ツールではなく、購入意思決定を支援するパートナーとして浸透し始めていると言えるでしょう。

EC市場全体では、モバイルデバイス経由の取引が全体の56.1%を占め、過去最高を更新する見通しです。主要な商戦日では、サイバーマンデーが142億ドル(約2.1兆円)、ブラックフライデーが117億ドル(約1.7兆円)の売上を見込んでいます。

また、「後払い決済(BNPL)」の利用も加速し、オンライン消費額は前年比11%増の202億ドルに達する見込みです。さらに、ソーシャルメディア広告からの売上は51%増と大幅に伸びる予測で、販促チャネルの多様化が進んでいます。

テイラー・スウィフト氏のプロモ動画、AI利用疑惑で炎上

プロモーションの概要

Googleと連携した新アルバムの謎解きキャンペーン
12本のアンロック動画にAI生成疑惑が浮上
動画不自然な描写に対しファンが不満
公式側は動画の生成方法についてコメント拒否

AI利用の動機と論点

Google動画生成AIモデルVeo 3の宣伝機会か
スウィフト氏は過去にAIによる偽情報拡散を批判
クリエイティブ業界の著作権倫理問題が再燃

著名アーティストであるテイラー・スウィフト氏が、Googleと共同で実施した最新アルバムのプロモーション用動画について、ファンから「AI生成ではないか」との疑惑が浮上し、物議を醸しています。これは、AI技術の商業利用やクリエイター著作権問題が議論される中で、著名人のAI活用に対する敏感さを浮き彫りにしています。

スウィフト氏は新アルバム『The Life of a Showgirl』のリリースに際し、Google検索から始まる大規模なオンライン・スカベンジャーハントを実施しました。ファンが手に入れた12本の謎解き動画について、一部のシーンがコンピューター生成特有の不自然さを示しているとして、「AIを利用している」との指摘が集中しています。

この疑惑は、Google側の思惑と密接に関係していると見られています。GoogleOpenAISora 2に対抗するAI動画生成モデルVeo 3を開発しており、数百万人のファンにリーチできるスウィフト氏とのコラボレーションは、自社技術を宣伝する絶好の機会だと考えられます。ただし、Google動画の制作方法についてコメントを拒否しています。

AI利用が特に問題となるのは、スウィフト氏自身が過去にAI生成画像による偽情報の拡散(大統領選関連の偽支持画像)に対して強い懸念を示していた経緯があるからです。豊富なリソースを持つ彼女が、コスト削減のためにAI生成に頼った場合、クリエイティブ業界における倫理的な批判を増幅させることになります。

AI技術は、クリエイターの作品制作を助ける一方で、無断で学習データに利用され、職を奪う技術に転用されることへの強い懸念があります。世界的スターのAI使用疑惑は、著作権や生計の脅威といった、クリエイティブ業界が抱える敏感なテーマを改めて浮き彫りにしています。

@AAA18288605のXポスト: テイラー・スウィフトが新アルバムのプロモーションに生成AI動画を使って炎上したっぽいな 元動画が既に消えてるから確認はできないけど、断片を見るに黒だろう 日本はコンテンツ産業の海外売上を増加させたいようだが、そこに生成AIを混ぜたら完全に逆効果だってそろそろ認知した方がいい h…

OpenAI、Sora 2活用AI動画SNSを投入。ディープフェイク対策と著作権の課題

新アプリの概要

AI生成動画専用のソーシャルアプリを公開
動画生成モデルSora 2を基盤技術に使用
縦型フィードやスワイプ操作などTikTok型UIを採用

主要な特徴

本人確認でデジタルアバターを自動生成
プロンプト入力で自分をAI動画の主役に設定可能
ユーザー間の交流とコンテンツ生成を重視

倫理・法的側面

ディープフェイク露骨な内容はガードレールで制限
他者の肖像利用は設定許可が必須
著名キャラクターに関する著作権保護の基準が曖昧

OpenAIは、AI生成動画に特化した新しいソーシャルアプリをローンチしました。基盤技術には動画生成モデル「Sora 2」を使用し、TikTokのような縦型フィード形式を採用しています。ユーザーは自身のデジタルアバターを作成し、プロンプトを通じて自分や友人をフィーチャーした動画を簡単に生成できる点が最大の特徴です。この動きは、AIエンターテイメントの未来像を提示しています。

このアプリの設計思想は、ユーザーに単なる視聴ではなく、積極的なコンテンツ生成を促す点にあります。本人確認プロセスとして、画面の指示に従い数字を読み上げる自身の動画を撮影させることで、顔と声のデジタルアバターが作成されます。これにより、ユーザーは自分や友人を人魚にするなど、現実離れしたシナリオの動画を手軽に制作可能です。

OpenAIは、悪用を防ぐための厳格なガードレールを導入しています。特に懸念されるディープフェイクポルノやヌード画像、露骨なロマンスの描写は生成がブロックされます。また、他者の肖像権(likeness)の利用は、本人が設定で許可しない限り不可能となっており、プライバシー保護に配慮しています。

一方で、著作権の扱いは依然としてグレーゾーンです。テイラー・スウィフトやダース・ベイダーといった明らかな著名キャラクターの生成は制限されていますが、ピカチュウなど他の有名キャラクターの動画生成は許可されている事例が確認されています。OpenAIは今後、フィルターを回避しようとするユーザーとの間で、いたちごっこ(Whack-a-Mole)が続くと予想されます。

OpenAIによる今回のアプリ投入は、ソーシャルメディアの未来がAIエンターテイメントにあるという見方を強化します。Metaも以前にAI生成動画アプリを試みましたが失敗しています。AIコンテンツから距離を置くTikTokとは対照的に、OpenAIパーソナライズされた「偽の世界」を提供することで、先行者としての地位を確立しようとしています。

UCLAが光でAI画像を超高速生成、低消費電力とプライバシーを両立

光学AIの3大革新性

生成速度は光速レベルを達成
電子計算より低消費電力で稼働
デジタル情報を保護するプライバシー機能を搭載

技術構造と動作原理

デジタルとアナログのハイブリッド構造
光の位相パターンを利用したアナログ領域での計算
「知識蒸留」プロセスによる学習効率化
画像生成単一の光パスで実行(スナップショットモデル)

米カリフォルニア大学ロサンゼルス校(UCLA)の研究チームは、生成AIのエネルギー問題を解決する画期的な技術として、「光学生成モデル」を発表しました。電子ではなく光子を用いることで、AI画像生成光速レベルで実現し、従来の拡散モデルが抱える高い消費電力とCO2排出量の削減を目指します。この技術は、処理速度の向上に加え、強固なプライバシー保護機能も提供します。

学生成モデルは、デジタルプロセッサとアナログの回折プロセッサを組み合わせたハイブリッド構造です。まず、デジタル領域で教師モデルから学習したシード(光の位相パターン)を作成します。このシードにレーザー光を当て、回折プロセッサが一瞬でデコードすることで、最終的な画像を生成します。生成計算自体は、光を使ったアナログ領域で実行されるのが特徴です。

UCLAのAydogan Ozcan教授によると、このシステムは「単一のスナップショット」でエンドツーエンドの処理を完了します。従来の生成AIが数千ステップの反復を必要とするのに対し、光の物理を利用することで、処理時間が大幅に短縮され、電力効率が劇的に向上します。画質を向上させる反復モデルも開発されており、高い品質を実現しています。

本モデルの大きな利点の一つは、データのプライバシー保護能力です。デジタルエンコーダーから生成される位相情報は、人間には理解できない形式であるため、途中で傍受されても専用のデコーダーなしには解読できません。これにより、生成された情報を特定ユーザーのみが復号できる形で暗号化する仕組みを構築できます。

研究チームは、この技術をデジタルコンピュータエコシステム内の代替品ではなく、「視覚コンピューター」として位置づけています。特に、デバイスが直接人間の目に画像を投影するAR(拡張現実)やVR(仮想現実)システムにおいて、処理システムとして活用することで、クラウドからの情報伝達と最終的な画像生成を光速かつ高効率で実現できると期待されています。

トップYouTuberがAI動画に警鐘「クリエイターの生計を脅かす存在」

業界最大手の危機感

MrBeastがAI動画の脅威を公言
数百万人のクリエイターの生計懸念
背景にOpenAISora 2の急速な普及

技術進化と市場への影響

Sora 2アプリが米国App Store1位獲得
YouTubeAI編集ツールを積極導入
AI動画が低品質な「slop」と見なされる側面

倫理と信頼性の課題

不開示利用はファンとの信頼喪失リスク
AI利用ツール提供で批判を受け撤回した過去

世界で最も影響力のあるYouTuberであるMrBeast(ジミー・ドナルドソン氏)がこのほど、AIによる動画生成技術がプロのクリエイターの生計を脅かす「実存的な脅威」となると強く警鐘を鳴らしました。フォロワー数6億人を超える業界の巨星によるこの発言は、AI技術の急進展に直面するコンテンツ経済全体に大きな波紋を広げています。

同氏はSNS上で、AI生成動画が「生計を立てている数百万人のクリエイター」にどのような影響を与えるのか疑問を呈し、「業界にとって恐ろしい時代」だと述べています。その懸念は、コンテンツが大量生産され、プロの付加価値が急速に低下する可能性に焦点が当たっています。

この危機感の背景にあるのは、OpenAIが最近発表した最新モデル「Sora 2」とその専用モバイルアプリの存在です。特にアプリはユーザーが手軽にAI動画を作成し、TikTokのような縦型フィードで共有できるため、リリース後すぐに米国App Storeで1位を獲得するなど、爆発的に普及しています。

動画プラットフォームであるYouTube自体も、AI技術の導入を加速させています。YouTubeはAI編集ツールや、独自の動画生成モデルVeoを活用した機能を提供し、クリエイターの作業効率化を支援しています。一方で、プラットフォームによるAI推進の動きは、MrBeastのようなトップクリエイターの不安を増幅させている側面もあります。

MrBeast自身、過去にAI技術と関わり、ファンからの批判を受けた経験があります。この夏、彼はAIを利用したサムネイル作成ツールを自身の分析プラットフォームで公開しましたが、すぐにクリエイターやファンから反発を受け、ツールを撤回し、人間のアーティストを推奨する形に変更しました。

AI生成動画が「slop(質の低いコンテンツ)」として敬遠される傾向もあり、その品質や創造性についても議論が続いています。今後AIが完全に人間に匹敵する動画を作れるようになったとしても、AI利用を開示しないクリエイターは、ファンからの信頼を失い、長期的に評判を損なうリスクがあります。

Ive氏とOpenAIのAIデバイス、「計算資源」と「人格」で開発難航

開発を阻む主要な課題

AIモデル実行のための計算資源不足。
大規模生産に向けたコストと予算の問題。
「常にオン」によるプライバシー懸念。

AIアシスタントの設計

アシスタントの「人格」設定の難しさ。
ユーザーとの会話の開始・終了の判断。
Siriを超える「友人」としての体験追求。

デバイスの基本仕様

画面がない手のひらサイズデザイン
カメラ、マイク、スピーカーでの対話機能。

OpenAIと元Appleデザイナーであるジョニー・アイブ氏が共同開発中の秘密のAIデバイスが、現在、複数の技術的難題に直面しています。特に、必要な計算資源(Compute)の確保と、AIアシスタントの「人格」設定が解決すべき重要な課題です。これらの問題が、2026年後半または2027年を目指す製品のリリースを遅らせる可能性があります。

最も深刻な課題の一つは、大規模な消費者向けデバイスでOpenAIのモデルを稼働させるための計算インフラストラクチャの確保です。関係者によると、OpenAIChatGPTに必要な計算資源さえ確保に苦慮しており、AIデバイスの量産体制に十分な予算とリソースを割くことができていません。

また、デバイスの「人格」設計も難航しています。目標はSiriよりも優れた、ユーザーの「友人」のようなAI体験ですが、「変なAIの彼女」にならないよう、声やマナーを慎重に決める必要があります。AIがいつ会話に参加し、いつ終了すべきかの判断も鍵です。

このデバイスは、特定プロンプトではなく、環境データを継続的に収集する「常にオン」の設計を目指しています。これにより、アシスタントの「記憶」を構築できますが、ユーザーのプライバシー保護に関する懸念も同時に高まっています。この機密データの取り扱いが重要です。

アイブ氏のioチームが設計するこのデバイスは、画面を持たない手のひらサイズで、マイク、スピーカー、カメラを通じて外界と対話します。サム・アルトマンCEOらは、このガジェットをAI時代の新たなキラープロダクトとして市場に投入したい考えです。

現状の課題は、AIハードウェア開発における技術的な成熟度を示しています。OpenAIは、Amazon AlexaGoogle Homeが持つリソースとは異なる、独自のインフラ戦略を確立する必要に迫られています。製品化には、デザインとAI技術の両面でのブレイクスルーが求められます。

ChatGPT Pulseへの広告導入、アルトマンCEOが可能性示唆

「Pulse」機能の特長

ユーザー履歴や接続アプリを基に学習
毎朝、パーソナライズされた情報を提供
ワークアウトやニュース要約などの自動生成
一日をChatGPTで始めるための設計

収益化戦略の方向性

現時点で広告導入の具体的計画なし
アルトマンCEOは将来的な可能性を否定せず
ユーザーに有用な関連広告を模索
高負荷のため現在はProユーザー限定提供

OpenAIサム・アルトマンCEOは、先日発表された新機能「ChatGPT Pulse」について、現段階では広告を導入する具体的な計画はないと明言しました。しかし、同時に将来的な広告導入の可能性は否定しない姿勢を示しており、同社の収益化戦略の方向性に関心が集まっています。この発言は、サンフランシスコで開催されたDevDayでの記者会見でなされました。

Pulseは、ユーザーのトランスクリプトやカレンダー、メールなどの接続アプリを基にAIが学習し、毎朝パーソナライズされた情報を提供する機能です。これにより、日々のワークアウト計画やニュース要約、レストランでの注文提案など、ユーザーの日常行動をAIが支援し、「一日をChatGPTで始める」という高いエンゲージメントを目指しています。

広告戦略について、アルトマンCEOは「大きな注意を払ってアプローチしている」としつつも、関連性の高い広告であればユーザーにとって有用になり得るとの見解を示しました。「私はInstagram広告を楽しんでいる」とも発言しており、ユーザーの文脈に深く根ざした広告モデルを将来的に模索する可能性を窺わせます。

なお、Pulse機能はアルトマン氏が「長年ローンチした中で最もお気に入りの機能」と述べるほど注力されていますが、その実行には高い計算負荷を伴います。このため、当初の計画とは異なり、現在はよりリソースにアクセスできるChatGPT Proユーザー限定での提供となっている状況も明らかになりました。

OpenAI、「Hacktivate AI」レポートで欧州AI普及20策を提言

目的と背景

AI導入競争力向上の加速
EUの「Apply AI Strategy」に具体的なアイデアを提供

提言された主要策

個人向けAI学習口座の導入
中小企業向けAIチャンピオンズ・ネットワーク設立
公共部門のための欧州GovAIハブ創設

競争力強化の鍵

デジタル単一市場のための規制の徹底的な調和
AI導入セクター間格差是正とターゲット介入

OpenAIスタートアップ支援団体 Allied for Startups はこの度、「Hacktivate AI」レポートを公表しました。欧州連合(EU)のAI導入を広範に加速させ、地域全体の競争力を高めるため、20の具体的な政策アイデアを提案しています。これは、EU委員会が「Apply AI Strategy」を発表する直前のタイミングで、実行可能な具体策として注目されます。

提言された20のアイデアは、主に「人材育成」「中小企業への導入促進」「規制の簡素化」の3つの柱で構成されています。特に、個人の専門能力開発を支援する「個別AI学習口座」の導入や、中小企業AI活用を促す「AIチャンピオンズ・ネットワーク」の創設などが具体例として挙げられています。

公共部門におけるAI活用支援も重要視されており、「欧州GovAIハブ」を通じて、各国政府間で共有リソースを提供する計画も盛り込まれています。OpenAIは、欧州のAIへの野心と現実とのギャップを埋めるには、ビジネスや組織がAIを日常業務に組み込むための具体的な介入が必要だと強調しています。

競争力向上の鍵となるのは、デジタル単一市場の真の恩恵を引き出すことです。レポートは、この目標達成のため「規制の徹底的な調和(Relentless Harmonisation)」を求め、複雑な手続きや規制の簡素化を強く推奨しています。

OpenAIによるChatGPTの職場利用調査では、AI導入が加速しているものの、ITや金融、製造業などデジタル成熟度の高いセクターと、その他の産業間とで格差が生まれていることも判明しました。この uneven な状況を是正するため、経済全体でAIが活用されるよう、ターゲットを絞った政策介入の必要性が示されています。

本レポートは、EU経済青写真や汎用AI行動規範への支持に続く、OpenAI欧州市場に対する継続的なコミットメントを示すものです。イノベーターや起業家を支援し、AI導入に注力することが、欧州の将来的な繁栄と進歩に不可欠であるとの認識に基づいています。

AI生成タンパク質のバイオ脅威、MSが「ゼロデイ」発見し緊急パッチ適用

AIタンパク質の脅威発覚

AI設計による毒性タンパク質の生成
既存バイオ防御網の回避を確認
AIとバイオにおける初のゼロデイ脆弱性

緊急対応と国際協力

サイバー型CERTアプローチを適用
新たなAI耐性パッチを即時開発
IGSC通じ世界的に導入を完了

情報ハザード対策

機密データに階層型アクセスを適用
IBBISが利用申請を厳格審査

Microsoftの研究チームは、AIを用いたタンパク質設計(AIPD)ツールが悪性のタンパク質配列を生成し、既存のバイオセキュリティ・スクリーニングシステムを回避できるという深刻な脆弱性を発見しました。この「Paraphrase Project」は、AIとバイオセキュリティ分野における初の「ゼロデイ脆弱性」と認定され、サイバーセキュリティ型の緊急対応を促しました。この結果と対応策は、機密情報の開示方法に関する新たなモデルとともに科学誌Scienceに発表されました。

研究チームは、オープンソースのAIツールを利用して、毒素として知られるリシンなどのタンパク質配列を「パラフレーズ」(言い換え)するパイプラインを構築しました。その結果、生成された数千の変異体が、構造や機能を維持しながらも、主要なDNA合成企業が採用するスクリーニングソフトウェアの検出をすり抜けることが実証されました。これは、AIの高度な設計能力が、既存の防御手法(既知の配列との類似性に基づく)を無力化しうることを示しています。

この極めて危険な脆弱性の発見を受け、Microsoftは即座にサイバーセキュリティ分野のCERT(緊急対応チーム)モデルを採用しました。脆弱性の公表に先行して、Twist BioscienceなどのDNA合成企業や国際的なバイオセキュリティ機関と機密裏に連携し、10カ月間にわたり「レッドチーミング」を実施。AI設計タンパク質の検出能力を大幅に向上させる「パッチ」を開発し、国際遺伝子合成コンソーシアム(IGSC)を通じて世界中に迅速に展開しました。

AIタンパク質設計は、新薬開発などの恩恵と悪用のリスクという「二重用途のジレンマ」を内包します。研究結果の公開が悪意ある行為者に悪用される「情報ハザード」に対処するため、MicrosoftはIBBIS(国際バイオセキュリティ・バイオセーフティ・イニシアティブ・フォー・サイエンス)と協力し、画期的な開示モデルを確立することに注力しました。

この新モデルは、データとメソッドを潜在的な危険度に応じて分類する「階層型アクセスシステム」です。研究者はアクセス申請時に身元や目的を開示し、専門家委員会による審査を受けます。Science誌がこのアプローチを初めて正式に承認したことは、厳密な科学と責任あるリスク管理が両立可能であることを示し、今後の二重用途研究(DURC)における情報共有のテンプレートとして期待されています。

専門家らは、AIの進化により、既知のタンパク質を改変するだけでなく、自然界に存在しない全く新規の脅威が設計される時代が来ると警告しています。DNA合成スクリーニングは強力な防御線ですが、これに頼るだけでなく、システムレベルでの防御層を多重化することが不可欠です。AI開発者は、脅威認識と防御強化に直接応用する研究を加速させる必要があります。