「最新AIニュースまとめ」最新のAI業界動向:Google、OpenAI、Metaからの大注目アップデート_2024年4月2週目

今週もAIの最新トピックをお届けします! テクノロジー業界は、今まさに、AIの可能性を最大限に引き出そうと熱心に取り組んでいます。GoogleやOpenAI、Adobeなど、名だたる企業が次々と新しいAI機能を発表しているのをご存知でしょうか。

Sara Nanase
April 14, 2024

一方で、AIの急速な進化に伴い、著作権侵害への懸念も高まっています。そのため、AIを規制する法案が登場するなど、AIをめぐる動きは多様にわたっています。さらには、AIチップ市場でNVIDIAが優位を保ちつつ、他社も追い上げてきているという報告もあります。テスラのマスクCEOは、なんと「来年にはAIが最も賢い人間を超える」と大胆な予言を立てています!ここまでAIをめぐる話題が盛りだくさんです。

Google Cloudが「Google Cloud Next '24」で生成型AIを多数発表

先日米国ラスベガスで開催された「Google Cloud Next '24」において、Google Cloudがインフラモデル、プラットフォームなど、AIポートフォリオの製品やテクノロジーを数多く発表しました。

Google Cloudの「Thomas Kurian」CEOは、基調講演で、顧客対応、従業員の生産性、コンテンツ制作などの分野で生成型AIを活用した事例を共有しました。また、モデル開発、データ活用、コード生成、セキュリティ運用など、AIの全プロセスでお客様のデジタル変革(DX)を支援するGoogle Cloudの包括的なビジョンも提示しました。

特に、AI向けの高性能な「TPU v5p」の正式バージョンや、NVIDIA製の「Blackwell」のチップ投入などのインフラ部門のアップデートを発表しました。これにより、Google Cloudの顧客は、より高速な推論速度で大量データをより安全かつ効率的に処理できるようになると、説明しています。

Vertex AIで130以上のモデルを提供、最新モデルも導入

Google Cloudは、Vertex AIプラットフォームを通じて自社および他社モデルを130個以上提供しており、顧客のモデル選択肢をさらに拡大する方針です。この一環として、 Gemini 1.0 Ultraに匹敵する性能を持ちながら、より少ないリソースを使用する中型のマルチモーダルモデル「Gemini 1.5 Pro」が公開プレビュー版として公開されました。これにより、企業は1時間分のビデオ、11時間分のオーディオ、3万行以上のコード、または70万語以上のコードベースなど、膨大な情報を処理できるようにサポートする予定です。さらに、Anthropicの「Claude 3」やGoogle の「CodeGemma」などの最新モデルも導入されました。

また、企業データを活用したモデル強化や「MLOps」機能の拡充により、顧客のモデル開発および運用能力が向上します。これにより、限られたリソースでも大容量コンテンツの処理が可能になりました。

Vertex AI のコードが不要なエージェントコンソール

生成型AI、企業のセキュリティと生産性向上に寄与

生成型AIは、サイバーセキュリティや業務の生産性向上など、企業の様々な分野で活用が広がっています。Google Cloudは、この需要に応え、セキュリティ運用ソリューションや「Google Vids」といったAIベースのビジネスアプリを提供しています。

Google Cloudのトーマス・クリアンCEOは、「Googleの目標はAIを通じて多くの人々の生活を改善すること」と述べ、「お客様の熱意と挑戦心が生成型AI発展を牽引している」と強調しました。今回の発表を通じ、Google Cloudの技術がお客様のデジタル変革をさらに促進すると期待されています。

出典:Google Cloud

Gemini 1.5 Proに音声認識・動画理解機能を追加

Google(グーグル)は、最新の生成型AI「Gemini 1.5 Pro」を世界180カ国以上でパブリックプレビュー(公開プレビュー)を公開しました。「Gemini 1.5 Pro」は、今年の2月にGoogle AI Studioで初期テスト用としてリリースされたAIモデルです。多くの開発者による徹底したテストで、その性能と機能が確認されました。今回の公開プレビューにより、より多くの国と地域でこの「Gemini 1.5 Pro」を体験する機会が広がります。

Google AI Studioを通じて提供される「Gemini 1.5 Pro」には、音声理解やファイル処理の新機能が搭載されています。これにより、開発者は、より複雑なアプリケーションを開発するようになります。

音声理解の進化

Gemini 1.5 Proは、音声を理解することができます。これは、話された言葉をテキストに変換し、それを解析する能力を持つということです。これにより、AIは、音声指示を受け取り、まるで人が話を聞いて理解するように、適切に反応することが出来ます。

新しいファイルAPIの導入

新たに導入されたファイルAPIによって、さまざまな種類のファイルをAIが直接読み取り、処理することが簡単になりました。例えば、音声ファイルや画像ファイルを読み込ませ、それに基づいたアクションを取ることができるようになります。

開発者向けの新機能

  • システム指示: AIの動作をより細かく制御できるように、特定の役割やフォーマットを指示する機能が追加されました。
  • JSONモード: AIが出力するデータをJSON形式で受け取ることができます。これはデータを構造化しやすくなるため、非常に便利です。
  • 新しい埋め込みモデル: 最新のテキスト埋め込みモデル「text-embedding-004」は、以前のモデルよりも高性能で、テキストデータからの情報抽出がより速く、正確に行えます。
Google AI Studioでシステム指示を簡単に設定

Gemini 1.5 Proは、その進化した機能によってAI開発において非常に強力なツールとなります。Google AI StudioからAPIキーを取得し、コミュニティチャンネルやGemini API Cookbookを利用して、情報やサポートを得ることもできます。

出典:Google for Developers

Google、Imagen 2で動画生成機能を追加もまだ限界あり

Googleが、新しいAI画像生成ツール「Imagen 2」を発表しました。Imagen 2の最大の特徴は、テキストから4秒間の動画を生成できることです。

Imagen 2には、既存の画像編集機能であるインペインティング(inpainting)とアウトペインティング(outpainting)も追加されました。インペインティングは、画像から不要な部分を削除する機能で、アウトペインティングは、画像の境界を拡張する機能です。さらに、企業向けには多言語のロゴやテキスト生成機能も提供しています。

しかし、Imagen 2の動画解像度は360 x 640ピクセルでまだ低い方です。競合製品であるRunwayやStable Video Diffusionなどと比べて画質が劣っています。また、Imagen 2の学習データに関する情報が公開されておらず、著作権の問題が生じる可能性が指摘されています。

過去にGoogleのAI製品で倫理的な問題が発生したことを考えると、Imagen 2でも同様の問題が生じる可能性があります。Googleは、Imagen 2に安全フィルタリング機能を適用したと発表していますが、その効果については疑問が投げかけられています。

全体的にImagen 2は企業向けのツールとして位置づけられていますが、動画生成機能の限界や著作権問題などにより、まだ改善が必要であると見られます。今後GoogleがどのようにImagen 2の機能を発展させるかが注目されます。

出典:Techcrunch

Googleが企業向けAI動画制作ツール「Vids」を発表

Googleは、先日開催されたGoogle Cloud Nextイベントで、クラウド型生産性ツール「Google Workspace」に新しい生成型AI機能を追加すると発表しました。その中でも特に注目を集めたのが、新しいAI動画制作アプリ「Google Vids」です。

Google Vidsは、AIが動画のストーリーボードを作成し、ストックフッテージから適切な場面を選んで初稿を組み立ててくれます。さらに自動で音声ナレーションも追加するので、ユーザーは簡単に動画を作ることができます。

これまでの動画、写真、BGMなどを活用して、マーケティング用の動画が作れるので、実際の使い勝手も良さそうです。Google ドキュメントと同じように、複数人で共同作業できる簡単なインターフェイスも提供されています。Google Vidsは2024年6月にGoogle Workspaceに追加される予定です。

OpenAI、「GPT-4 Turbo」アップデート

OpenAIは、ChatGPTのプレミアムユーザー向けに「GPT-4 Turbo」の重要なアップグレードを発表しました。この新しいバージョンは「gpt-4-turbo-2024-04-09」と名付けられ、2023年12月までの最新の公開データでトレーニングされています。その結果、2023年4月までのデータが含まれている以前のバージョンより、モデルの知識ベースが大きく向上しました。

アップグレードされたGPT-4 Turboは、執筆、数学、論理的推論、コーディングなど、様々な分野で目覚ましい性能を発揮し、以前のバージョンを超える優れた性能を提供します。ユーザーは、ChatGPTとの対話を通じて、より直接的で簡潔な対話ができ、全体的なユーザー経験が向上しました。

さらに、OpenAIは新しいGPT-4 TurboをAnthropicの「Claude 3 opus」やGoogleの「Gemini Ultra1.0」と「Pro1.5」など、他のAIモデルと比較してベンチマークを実施しました。その結果、GPT-4 Turboは、既存のバージョンだけでなく、MMLU、MATH、GPQA、DROP、MGSM、HumanEvalといった様々なベンチマークでも競合モデルを上回る結果が出ました。

この発表は、OpenAIが、性能低下によりユーザーが競合他社であるClaude3に移行するとの意見に直面した後に行われました。OpenAIが次世代の動画生成AI「Sora」やGPT-5の開発に力を入れている間に、GoogleとAnthropicは新しいモデルを発表し、GPT-4を超えるという連続したベンチマーク結果を公表しました。

GPT-4 Turboのリリースには、特にテキスト専用モデルに画像理解能力を加える「GPT-4 Turbo with Vision」など、APIのアップデートも含まれています。これは、OpenAIの技術提供範囲を広げる重要な進歩であり、AIモデルの有用性と応用の可能性を拡大します。

出典:techcrunch.com

OpenAIが100万時間以上のYouTube動画を使ってGPT-4を学習させた

最新の「ニューヨーク・タイムズ」の報道によると、大手AI企業がデータ取得に苦戦しているようです。特にOpenAIは、自社の最新言語モデルGPT-4を訓練するために、100万時間以上のYouTube動画を使って音声転写(音声データをテキスト形式に変換するプロセス)を行っていたことが明らかになりました。

OpenAIのグレッグ・ブロックマン(Greg Brockman)社長が、これらの動画の収集に関与していたそうです。OpenAIは、この行為が著作権上の問題があることを認識していましたが、フェアユースに該当すると考えていたようです。フェアユース(公正使用)とは、著作権で保護された作品を許可なく使用することが許される法的な概念です。

他のAI企業についても同様の行動が確認されています。Googleは、自社のモデル訓練にYouTubeの字幕を使っており、YouTubeのCEOも、OpenAIがGPT-4の訓練にYouTubeのコンテンツを使っている可能性を指摘しています。

Metaも同様の問題に直面しており、書籍の利用権を取得したり、出版社を買収する方法も検討したそうです。また、プライバシー対策で制限されていた消費者データの活用も模索していたようです。

AIモデルの性能向上には、大量のデータが不可欠ですが、企業が利用できる適切なデータが不足しつつあります。人工的に生成したデータの活用や、段階的な学習方式の導入など、新たなアプローチも検討されていますが、まだ実用化には至っていません。

一方で、企業が無許可でデータを使うというリスクも高まっています。著作権侵害の訴訟が相次いでいるのがその証拠です。AIの発展のためには、適切なデータ活用方法を確立することが喫緊の課題と言えます。

出典:Theverge.com

AdobeがAI動画生成モデル構築に向け、動画データを大量に購入

Adobeは、最新のAI動画生成技術に追いつくために積極的に取り組んでいます。OpenAIの「Sora」など、競合他社の進化に刺激を受け、Adobeも自社のテキストから動画へ変換するAIモデルの構築に着手しました。

Adobeは、自社のAIモデル訓練のために多数の動画素材を購入しています。Adobeにとって動画編集ツールは非常に重要な柱であり、この領域での競争力を強化するためにAIの活用に力を入れています。

Adobeは、既に「Firefly」という画像生成AIを披露しており、今度は動画生成の領域に挑戦しています。しかし、法的な問題を避けるために、著作権で保護されていない、または適切なライセンスを持つ動画素材の購入やパートナーシップを通じてデータを収集しています。

そこで、Adobeは動画クリエイターに依頼して、日常的な動作を撮影した短い動画を提供してもらっています。報酬は1分あたり3ドルから7ドル程度のようです。

Facebook、Instagram、ThreadsでのAI生成コンテンツの表示方法を変更

Metaは、AIによって生成された動画、音声、画像に対して、「Made with AI」というラベルを付けて表示する方針を採りました。AIツールを使って作成されたコンテンツについて、投稿者がその事実を明らかにした場合も、同様のラベルが付けられます。

Made with AI(出典:Meta Blog)

これまでMetaは、人物が発言しているように、AIによって偽造された動画のみを規制の対象としていました。しかし、技術の進歩により、画像や音声もAIで生成されるようになりました。そのため、Metaはラベル表示を通じて透明性を確保することが重要だと判断しました。政府の委員会からは、不適切な表現を除去するのではなく、ラベルを付けて提供することで、表現の自由を守るべきだとの提言がありました。これを受けてMetaは、AIコンテンツを削除するのではなく、ラベルを付けて掲載し続ける方針を採用しました。

ただし、虚偽の情報や、選挙妨害、嫌がらせなど、コミュニティ基準に反するコンテンツは引き続き削除の対象となります。また、独立した事実チェッカーによる検証を受け、偽情報と認定された場合も、ラベル表示やフィード表示の制限などの措置がとられます。

Metaは、2024年5月からAI生成コンテンツのラベル表示を開始し、7月からは単にAIによって生成された動画を理由に削除しないことにしました。これは、ユーザーにラベル表示の意味を理解してもらうための移行期間と考えられます。

このように、Metaはガバナンス委員会や世界各国の専門家、一般ユーザーの意見を反映しながら、AIコンテンツへの対応方針を見直してきました。表現の自由とユーザーの理解を重視しつつ、有害な影響を最小限に抑える取り組みと言えます。

出典:Facebook Blog

著作権法を強化、AI企業に使用素材の開示を義務付ける法案が提出

先日、米国議会に新しい法案が提出されました。この法案は、AI企業に対して、生成型AIの開発に使用した著作物の情報を開示することを義務付けることです。

法案の提出者であるAdam Schiff (アダム・シフ)民主党下院議員は、「AIは、経済、政治、日常生活に大きな影響を与える可能性を持っています。その巨大な可能性を活かす一方で、倫理的なガイドラインや保護措置の重要性のバランスを取らなければならない」と述べています。

この法案では、AI企業がテキスト、画像、音楽、動画を生成する新しいシステムを公開する前に、著作権登録所に使用した著作物のリストを提出することを義務付けています。提出期限は公開の30日前となっており、期限に間に合わない場合は罰金が科されます。

OpenAIは、チャットGPTの開発に著作権がある素材を違法に使用したとして訴訟を受けています。一方でOpenAIは、著作物の使用について、フェアユース(公正使用)の範囲内であると主張しています。フェアユースとは、著作権法によって定められた、著作権で保護された素材を許可なく利用できる特定の条件を指します。この主張により、OpenAIは、教育、批評、報道、研究などの目的で著作物を使用することが合法的であるとしています。

このように、AIシステムの開発と著作権保護のバランスを取ることが大きな課題となっています。今回の法案は、AI企業に使用素材の開示を義務付けることで、透明性を高め、アーティストの権利保護を目指しています。

出典:Theguardian

Meta社、次世代のLLMモデル「Llama 3」を来月中にリリース予定

Meta社は、先週ロンドンで開催したイベントで、大規模言語モデル「Llama 3」の初回リリースを来月中に行う計画を発表しました。

Llama 3は、Meta社が提供するAIアシスタントの基盤となるモデルです。前のバージョンであるLlama 2に比べて、より幅広い質問に対応できるようになり、ユーザーにとって受け入れやすくなるとのことです。

Meta社のグローバル担当、Nick Clegg氏は、「来月、あるいはそれよりも早く、できれば非常に短期間で、次世代の基盤モデルであるLlama 3の新しい製品群を発売したい」と述べました。また、製品企画担当のChris Cox氏は、「Llama 3をMeta社の様々な製品に活用していく」と説明しています。

Llama 3は、OpenAIの大ヒットアプリ「ChatGPT」に追いつくために開発されています。Llama 2までは機能が限られていたため、ユーザーから不評だったですが、Llama 3は、より幅広い質問に対応できるようになり、ユーザーからの好評が期待されています。

Meta社のAI研究担当バイスプレジデントのJoelle Pineau氏は、「最終的には、Llama搭載のMetaのAIアシスタントが世界で最も便利なアシスタントになることを目指している」と述べています。ただし、まだ課題も残されているそうです。

一方で、Meta社のAI最高責任者のYann LeCun氏は、「AIの未来は生成型AIではなく、Joint Embedding Predicting Architecture(JEPA)だ」と述べ、生成型AIの限界を指摘しています。

出典:TechCrunch

マイクロソフト、日本でAIとクラウドに4兆円規模の投資を発表

マイクロソフトは、日本国内のクラウドコンピューティングとAI (人工知能)インフラの強化に約29億ドル(約4兆円)を2年間かけて投資すると発表しました。これは日本国内での最大規模の投資となります。

マイクロソフトは、今後3年間で300万人以上の日本人にAI技術を提供する教育プログラムも拡大する予定です。さらに、AIやロボット工学に特化した研究所を日本に開設し、日本政府とサイバーセキュリティの協力も深化させていきます。

この投資は、先週訪日した岸田文雄首相とブラッド・スミス マイクロソフト社長の会談後に発表されたものです。岸田首相はワシントンを訪れ、半導体やAI、量子コンピューティングなどの先端技術分野での日米協力を呼びかける予定です。

日本は2022年末時点で、米国への投資額が7,752億ドル(約1,000兆円)と最大の投資国です。一方で、中国の対米投資は448億ドル(約60兆円)にとどまっています。

このように、マイクロソフトは日本をはじめ、世界各地でAIやクラウドへの投資を積極的に行っています。今後、日本においてもAIやデジタル技術の活用が加速していくことが期待されます。

NvidiaのAIチップ市場、他社も追い上げてきた

長年にわたりAIチップ市場をリードしてきた半導体大手のNvidia社ですが、最近では他社からの追い上げに直面しています。

Nvidiaの製品は、AI分野の急成長を背景に、多くの企業がNvidiaの製品を必死に買い占めてきました。実際、Nvidiaの株価は過去1年で220%も高騰し、世界で第3位の時価総額を誇るまでに成長しました。

しかし最近では、Meta(フェイスブック)やMicrosoft、Amazon、Googleなどの大手IT企業が、自社開発のAIチップを相次いで発表しています。半導体大手のIntelやAMDも、Nvidiaに対抗する新製品を発表しています。わずか2日の間に、これら大手企業が相次いで新AIチップを発表したのは、Nvidiaの地位を脅かす動きと言えます。

Nvidiaの主要顧客、自社開発を本格化

実際、Nvidiaの売上の2/3は上位5社から占められています。この上位5社には、MetaやMicrosoft、Google、Amazonなどが含まれます。これらの企業が自社開発のAIチップを本格化させれば、Nvidiaの売上に大打撃を与える可能性があります。

たとえば、GoogleはTensorProcessingUnit(TPU)の最新版を発表し、MetaもMTIAの新モデルを公開しました。これらの新チップは、Nvidiaの「GPU(グラフィックスプロセッサ)」に取って代わる存在となるかもしれません。実際、AIスタートアップのAnthropicやHugging Face、AssemblyAIなどでは、Googleの新チップを採用しているところもあります。

Nvidiaは優位性維持に向けて対抗

一方、Nvidiaも積極的に対抗しています。Nvidiaチップの最大の魅力は、充実したソフトウェアライラリと開発者が使いやすいことです。これにより、Nvidiaは今でも業界トップの地位を維持できているのです。

ただし、Nvidiaの顧客企業が自社開発に乗り出している点は注目に値します。AIチップ需要の急拡大を受けて、各社が激しい競争を繰り広げることになりそうです。今後、Nvidiaがどのように対応していくのか、見守る必要があります。

出典:Quartz

テスラのマスクCEO、「来年にはAIが最も賢い人間を超える」と予言

テスラのCEOであるイーロン・マスクは、人工知能(AI)が最も賢い人間よりも優れるようになるのは、おそらく来年か2026年までに達成されると述べました。

マスクは、ノルウェーの国富基金CEOのインタビューに答える中で、このような予言を行いました。AI開発には電力の確保が重要な課題となっているとも指摘しました。

また、マスクが設立したxAIのAIチャットボット「Grok」の次期バージョンは5月までに訓練を完了する見込みだと話しました。ただし、Grokの訓練には高性能なNvidiaのGPUが2万台以上必要だと述べ、電力供給が将来的な課題になると警鈴を鳴らしました。

一方で、電気自動車分野では、中国メーカーがテスラにとって最も厳しい競争相手になっていると述べました。

こうした発言からは、マスクがAIの発展に大きな期待を寄せている一方で、その実現にはさまざまな課題があることが分かります。

電力やハードウェアの確保など、AIを本格的に実用化していくためには、まだ多くの障壁が存在しているようです。テスラをはじめとする企業が、これらの課題にどのように取り組んでいくかが注目されます。

Google Cloud Next '24における生成型AIの進展 FAQ

Q1: Google Cloud Next '24でGoogle Cloudはどのような生成型AIを発表しましたか?

A1: Google Cloudは、Google Cloud Next '24で、インフラモデルやプラットフォームを含むAIポートフォリオの様々な製品やテクノロジーを発表しました。これには、高性能な「TPU v5p」やNVIDIAの「Blackwell」チップなどが含まれています。

Q2: 生成型AIの具体的な利用例として、どのような事例が共有されましたか?

A2: トーマス・クリアンCEOは、顧客対応、従業員の生産性向上、コンテンツ制作などの分野で生成型AIの利用事例を共有しました。これらの事例は、企業がより効率的に業務を行うための手助けとなっています。

Q3: Vertex AIプラットフォームではどのような新しいモデルが提供されていますか?

A3: Vertex AIプラットフォームは、130個以上の自社および他社モデルを提供しており、最新のモデルとして中型のマルチモーダルモデル「Gemini 1.5 Pro」が公開プレビュー版として導入されました。これにより、大量のビデオ、オーディオ、コードの処理が可能になっています。

Q4: Google Cloudの生成型AIは企業のどのような問題を解決するために利用されていますか?

A4: 生成型AIは、サイバーセキュリティの向上や業務の生産性向上に寄与しています。Google Cloudは、セキュリティ運用ソリューションやAIベースのビジネスアプリ「Google Vids」を提供し、企業がセキュリティを強化し、効率的に業務を遂行できるよう支援しています。

Q5: Google Cloudのデジタル変革(DX)への影響はどのようなものですか?

A5: Google Cloudは、AIの全プロセスにおいて顧客のデジタル変革を支援する包括的なビジョンを持っています。これにはモデル開発、データ活用、コード生成、セキュリティ運用などが含まれ、顧客がデジタル技術を活用してビジネスを変革するのを助けています。

Gemini 1.5 Proに関するFAQ

Q1: Gemini 1.5 ProとはどのようなAIモデルですか?

A1: Gemini 1.5 ProはGoogleが開発した最新の生成型AIモデルで、音声理解やファイル処理の新機能を備えています。2023年2月にGoogle AI Studioで初期テストされ、その後、世界180カ国以上で公開プレビューが行われました。開発者はこのモデルを利用して、より複雑なアプリケーションを開発することが可能です。

Q2: Gemini 1.5 Proの新機能にはどのようなものがありますか?

A2: Gemini 1.5 Proには、音声をテキストに変換して解析する音声理解機能や、様々な種類のファイルを直接読み取り、処理することができる新しいファイルAPIが搭載されています。これにより、例えば音声ファイルや画像ファイルを読み込ませ、それに基づいたアクションを取ることが可能になります。

Q3: 開発者向けの特別な機能とは何ですか?

A3: 開発者向けには、AIの動作を細かく制御できるシステム指示機能、データをJSON形式で受け取ることができるJSONモード、およびテキストデータからの情報抽出が高速かつ正確に行える最新のテキスト埋め込みモデル「text-embedding-004」が導入されています。これらの機能により、開発者はAIをより効率的に活用し、多様なアプリケーションの開発が可能になります。

Q4: Gemini 1.5 Proをどのように活用できますか?

A4: 開発者はGoogle AI StudioからAPIキーを取得し、Gemini 1.5 Proを活用することができます。また、コミュニティチャンネルやGemini API Cookbookを通じて、他の開発者と情報交換やサポートを受けることが可能です。これにより、音声認識や動画理解などの複雑なタスクを処理するアプリケーションの開発が容易になります。

Imagen 2に関するFAQ

Q1: Imagen 2の主な特徴は何ですか?

A1: Imagen 2はGoogleによって開発されたAI画像生成ツールで、テキストから最大4秒間の動画を生成する機能が最大の特徴です。加えて、画像の不要な部分を削除するインペインティングや、画像の境界を拡張するアウトペインティング機能が追加されています。さらに、多言語でのロゴやテキスト生成機能も企業向けに提供されています。

Q2: Imagen 2の動画生成機能にはどのような限界がありますか?

A2: Imagen 2で生成される動画の解像度は360 x 640ピクセルと比較的低く、競合製品であるRunwayやStable Video Diffusionなどと比べると画質が劣っています。これにより、より高解像度や高品質な動画が求められる場合には限界があります。

Q3: Imagen 2に関連する著作権や倫理的な問題は何ですか?

A3: Imagen 2の学習データについての情報が公開されていないため、著作権の問題が生じる可能性があります。また、GoogleのAI製品が過去に倫理的な問題を引き起こしたことを考慮すると、Imagen 2でも同様の問題が生じる可能性が指摘されています。Googleは安全フィルタリング機能を適用していると発表していますが、その効果については疑問が投げかけられています。

Q4: GoogleはImagen 2のどのような改善を計画していますか?

A4: 具体的な改善計画の詳細は公表されていませんが、動画生成機能の解像度向上や著作権問題の解決、倫理的な問題に対するより効果的な対策が求められています。Googleはこれらの課題に対応するため、今後もImagen 2の機能を進化させることが期待されます。

Google Vidsに関するFAQ

Q1: Google Vidsとは何ですか?

A1: Google Vidsは、Googleによって新たに発表されたAI動画制作アプリです。このツールは、AIを活用して動画のストーリーボードを作成し、ストックフッテージから適切な場面を選んで初稿を組み立て、自動で音声ナレーションを追加することができます。特にマーケティング用の動画制作に適しており、ユーザーは簡単に高品質な動画を制作することが可能です。

Q2: Google Vidsの主な特徴は何ですか?

A2: Google Vidsの主な特徴は、AIによる動画制作の自動化です。AIがストーリーボードの作成からストックフッテージの選定、初稿の組み立て、音声ナレーションの追加までを一手に担います。また、Google ドキュメントのように複数人での共同作業が可能なインターフェイスを備えているため、チームでの動画制作がスムーズに行えます。

Q3: Google Vidsはいつから利用できるようになりますか?

A3: Google Vidsは2024年6月にGoogle Workspaceに追加される予定です。この時点から、Google Workspaceを利用している企業や個人は、この新しいAI動画制作ツールを活用できるようになります。

Q4: Google Vidsを利用する主なメリットは何ですか?

A4: Google Vidsを利用することで、時間とコストを大幅に節約しながら、プロフェッショナルな動画を簡単に制作することができます。特にマーケティング活動において、迅速かつ効果的な動画コンテンツの提供が可能になるため、企業のプロモーションやブランディング戦略を強化する上で大きなメリットがあります。また、複数人での共同作業機能により、チーム内のコラボレーションを促進し、クリエイティブなアイデアの共有や編集作業の効率化が図れます。

GPT-4 Turboに関するFAQ

Q1: GPT-4 Turboとはどのようなアップグレードですか?

A1: GPT-4 Turboは、OpenAIがChatGPTのプレミアムユーザー向けに提供する重要なアップグレードです。「gpt-4-turbo-2024-04-09」と名付けられたこの新バージョンは、2023年12月までの最新の公開データでトレーニングされ、以前のバージョンよりも知識ベースが大きく向上しています。このアップグレードにより、執筆、数学、論理的推論、コーディングなどの分野で顕著な性能向上が実現しました。

Q2: GPT-4 Turboの主な改善点は何ですか?

A2: GPT-4 Turboは、性能の向上を中心にいくつかの改善が行われています。ユーザーはChatGPTとの対話を通じてより直接的で簡潔な対話が可能となり、全体的なユーザー経験が向上しました。また、様々なAIベンチマークテストで、Anthropicの「Claude 3 opus」やGoogleの「Gemini Ultra1.0」と「Pro1.5」などの競合モデルを上回る結果を示しています。

Q3: GPT-4 Turboはどのようなベンチマークで競合モデルを上回りましたか?

A3: GPT-4 Turboは、MMLU(MultiModal Language Understanding)、MATH、GPQA(General Purpose Question Answering)、DROP(Discrete Reasoning Over Paragraphs)、MGSM(MultiGenre Semantic Matching)、HumanEvalなど、様々な分野にわたるベンチマークで競合モデルを上回りました。これにより、様々な分野での応用が期待されています。

Q4: GPT-4 Turboに加えられた新機能はありますか?

A4: はい、GPT-4 Turboには「GPT-4 Turbo with Vision」という画像理解能力を加えたテキスト専用モデルのアップデートが含まれています。この新機能により、テキストと画像のデータを組み合わせて解析することが可能になり、AIモデルの有用性と応用の幅がさらに拡がります。

GPT-4の学習に使用されたYouTube動画に関するFAQ

Q1: OpenAIはGPT-4の訓練に何を使用しましたか?

A1: OpenAIはGPT-4の訓練のために、100万時間以上のYouTube動画の音声をテキスト形式に転写して使用しました。この大量の動画データから得られる音声情報は、言語モデルの能力向上に寄与しています。

Q2: OpenAIは著作権問題をどのように扱っていますか?

A2: OpenAIは、YouTube動画の使用が著作権上の問題を引き起こす可能性があることを認識していましたが、その行為がフェアユース(公正使用)に該当すると考えていました。フェアユースは、著作権で保護された作品を特定の条件下で許可なく使用することを許す法的な概念です。

Q3: 他の企業はどのような対応をしていますか?

A3: Googleも自社のモデル訓練にYouTubeの字幕を使用しており、Metaは書籍の利用権を取得する方法や出版社を買収する方法を検討しています。これらの企業も、大量のデータを必要とするAIモデルの訓練において、データソースとしての適法性や効率的な利用方法を模索しています。

Q4: AIモデルのデータソースとしての課題は何ですか?

A4: AIモデルの性能向上には大量のデータが必要ですが、適切なデータソースの不足が問題となっています。企業は人工的に生成したデータや段階的な学習方式の導入など、新たなアプローチを検討していますが、まだ実用化には至っていません。さらに、無許可でデータを使用するリスクも高まっており、著作権侵害の訴訟が相次いでいます。適切なデータ活用方法を確立することが、AI発展のための喫緊の課題です。

AdobeのAI動画生成モデル構築に関するFAQ

Q1: AdobeはなぜAI動画生成モデルの構築に取り組んでいるのですか?

A1: Adobeは、競合他社の進化に刺激を受け、特にOpenAIの「Sora」などの進歩したAIモデルに追いつくためにAI動画生成モデルの構築に取り組んでいます。動画編集ツールがAdobeのビジネスの重要な柱であるため、この領域での競争力を強化し、技術の先端を行くためにAIの活用に力を入れています。

Q2: Adobeはどのようにして動画データを収集していますか?

A2: Adobeは、法的な問題を避けるために、著作権で保護されていない、または適切なライセンスを持つ動画素材を購入しています。また、動画クリエイターとパートナーシップを組み、日常的な動作を撮影した短い動画を提供してもらう方法も取っています。これにより、Adobeは合法的かつ効率的に大量の動画データを確保しています。

Q3: Adobeが動画クリエイターに支払っている報酬はどれくらいですか?

A3: Adobeは動画クリエイターに対して、1分の動画撮影につき3ドルから7ドル程度の報酬を支払っています。この報酬はクリエイターにとって魅力的なオファーであり、多くの動画コンテンツの提供を促進することに繋がっています。

MetaのAI生成コンテンツ表示ポリシーに関するFAQ

Q1: Metaが「Made with AI」というラベルを導入した理由は何ですか?

A1: Metaは、AIによって生成された動画、音声、画像などのコンテンツに対して透明性を確保するために「Made with AI」というラベルを導入しました。技術の進化により、AIで生成されるコンテンツが増加しており、ユーザーがコンテンツがAIによって生成されたものであることを容易に識別できるようにするためです。

Q2: AI生成コンテンツに対するMetaの方針にはどのようなものがありますか?

A2: Metaは、AIによって生成されたコンテンツを削除するのではなく、それをラベル付けして公開する方針を採っています。これにより、表現の自由を守りつつ、コンテンツの透明性を高めることが目的です。ただし、虚偽の情報や選挙妨害、嫌がらせなど、コミュニティ基準に反するコンテンツは引き続き削除の対象となります。

Q3: AI生成コンテンツのラベル表示はいつから開始されますか?

A3: Metaは、2024年5月からAI生成コンテンツのラベル表示を開始し、7月からはAI生成動画を削除しない新しいポリシーを実施する予定です。これにより、ユーザーがラベルの意味を理解しやすくするための移行期間が設けられます。

Q4: Metaのこの新しい方針はどのようにユーザーに影響しますか?

A4: この新しい方針により、ユーザーはAIによって生成されたコンテンツを明確に識別できるようになります。これは、ユーザーが情報を扱う際によりインフォームドな判断を下すのに役立ちます。また、AI生成コンテンツのラベル付けにより、ユーザーは創造的な内容とそれがどのように作成されたかを理解することができ、AI技術に対する理解も深まります。

AI企業に使用素材の開示を義務付ける新法案に関するFAQ

Q1: 新しい法案の主な目的は何ですか?

A1: この新しい法案の主な目的は、生成型AIの開発に使用される著作物の情報をAI企業が開示することを義務付けることにより、透明性を高め、著作権保護を強化することです。これにより、アーティストやコンテンツ制作者の権利が保護されることが期待されます。

Q2: 法案による具体的な義務付け内容は何ですか?

A2: 法案では、AI企業が新しいテキスト、画像、音楽、動画生成システムを公開する前に、著作権登録所に使用した著作物のリストを提出することを義務付けています。このリストは公開の30日前までに提出する必要があり、期限を守らない場合には罰金が科されることとなっています。

Q3: この法案が提出された背景は何ですか?

A3: この法案は、AI技術が経済、政治、日常生活に与える影響が増大している中、倫理的なガイドラインと保護措置のバランスを取る必要性が高まっていることが背景にあります。また、著作権を持つ素材を違法に使用しているとされる事例が増えているため、これに対処するための法的な枠組みを整備しようとする動きがあります。

Q4: OpenAIの現在の著作権問題にどのように関連していますか?

A4: OpenAIは、チャットGPTの開発に著作権がある素材を使用しており、これに対する訴訟を受けています。OpenAIはフェアユースの原則に基づいて著作物を使用していると主張していますが、この新しい法案は、そのような使用が正当であるかどうかを明確にするため、さらなる開示を求めています。この法案が成立すれば、AI企業は使用する著作物についてより明確な情報を提供する必要があり、著作権問題に対する透明性が向上することが期待されます。

Meta社の新しい大規模言語モデル「Llama 3」に関するFAQ

Q1: Llama 3とは何ですか?

A1: Llama 3はMeta社が開発した最新の大規模言語モデルで、AIアシスタントの基盤となる技術です。前バージョンのLlama 2に比べて、より幅広い質問に対応でき、ユーザーフレンドリーに進化しています。このモデルは、AIアシスタントを通じてMeta社の製品群全体にわたって利用される予定です。

Q2: Llama 3のリリース時期はいつですか?

A2: Meta社はLlama 3のリリースを来月中に予定しています。この発表は、ロンドンで先週行われたイベントで行われました。リリースが予定よりも早まる可能性もありますが、正確な日付はまだ公表されていません。

Q3: Llama 3の主な改善点は何ですか?

A3: Llama 3は、特に対話能力が強化されており、より多くの質問タイプに対応できるように設計されています。これにより、ユーザーからの不評だったLlama 2の限界を克服し、ユーザーにとってより使いやすくなることが期待されています。

Q4: Meta社のAIアシスタントにおけるLlama 3の役割は何ですか?

A4: Llama 3は、Meta社のAIアシスタントの主要な基盤技術として機能します。このモデルは、ユーザーからのさまざまな質問に対して応答することができ、よりインテリジェントで効果的なアシスタントサービスを提供することを目指しています。Meta社はこの技術を使って、世界で最も便利なAIアシスタントを目指しています。

マイクロソフトによる日本への大規模投資に関するFAQ

Q1: マイクロソフトは日本にどのような投資を行う予定ですか?

A1: マイクロソフトは、日本のクラウドコンピューティングと人工知能(AI)インフラの強化のために、約29億ドル(約4兆円)を投資する計画です。これは日本国内での最大規模の投資となります。投資期間は2年間です。

Q2: この投資によってマイクロソフトは何を目指していますか?

A2: この投資により、マイクロソフトは日本国内でのクラウドサービスとAI技術の基盤を強化し、より多くの企業や個人が先進技術を活用できるようにすることを目指しています。また、日本国内でのAI技術の研究と開発を促進し、サイバーセキュリティの強化と技術教育の拡充にも注力します。

Q3: マイクロソフトは教育プログラムにどのような形で取り組む予定ですか?

A3: マイクロソフトは、今後3年間で300万人以上の日本人にAI技術を提供する教育プログラムを拡大する予定です。これにより、AI技術の普及と理解を深めることができ、日本国内でのデジタル技術の活用が促進されることが期待されます。

Q4: 日本でのAIやロボット工学の研究にどのように貢献しますか?

A4: マイクロソフトは、AIやロボット工学に特化した研究所を日本に開設する予定です。この研究所を通じて、最新のAI技術やロボット工学の研究を行い、日本の技術革新を支援することを目指しています。また、この研究所は日本の学術機関や企業との連携も強化することが期待されます。

Q5: 日米間の技術協力にこの投資はどのように影響しますか?

A5: この投資は、日米間の技術協力をさらに強化するものです。特に、半導体、AI、量子コンピューティングなどの先端技術分野での協力が促進されることが期待されています。岸田文雄首相がワシントンを訪れる予定で、この訪問が日米間のさらなる技術協力の橋渡しとなる可能性があります。

NvidiaのAIチップ市場における現状と課題

Q1: NvidiaがAIチップ市場で直面している競争の現状はどのようなものですか?

A1: Nvidiaは長らくAIチップ市場をリードしてきましたが、最近ではMeta、Microsoft、Amazon、Googleなどの大手IT企業が自社開発のAIチップを相次いで発表し、競争が激化しています。これらの企業はNvidiaの主要顧客であり、彼らが自社のAIチップを本格的に開発することで、Nvidiaの売上に大きな影響を与える可能性があります。

Q2: NvidiaのAIチップの強みは何ですか?

A2: Nvidiaチップの最大の魅力は、充実したソフトウェアライブラリと、開発者が使いやすい環境を提供していることです。これにより、多くの企業や開発者に支持されており、依然として業界のトップに位置しています。

Q3: GoogleやMetaが発表した新AIチップについて教えてください。

A3: GoogleはTensorProcessing Unit (TPU)の最新版を、MetaはMTIAの新モデルを発表しました。これらの新チップは、NvidiaのGPUに代わるものとして位置づけられ、特にAIアプリケーションのパフォーマンスと効率性に焦点を当てています。これらのチップは、AIスタートアップを含む多くの企業で採用され始めており、市場におけるNvidiaの支配力に挑戦しています。

Q4: Nvidiaはこれらの競争にどのように対抗していますか?

A4: Nvidiaは、自社のチップの技術的優位性を維持し続けるために、新しい製品の開発に注力しています。また、ソフトウェアとハードウェアのエコシステムをさらに強化し、顧客にとって価値のあるソリューションを提供することで対抗しています。さらに、教育やサポート体制を充実させることで、開発者コミュニティの支持を確固たるものにしようと努めています。

Q5: Nvidiaの今後の展望はどのように見られていますか?

A5: Nvidiaは引き続きAIチップ市場でのリーダーシップを目指していますが、自社開発のAIチップを進める大手IT企業との競争はますます激しくなると予想されます。Nvidiaがどのように市場の変化に対応し、革新的な製品とソリューションを提供していくかが、今後の成功に鍵を握るでしょう。

イーロン・マスクによるAIの将来予測に関するFAQ

Q1: イーロン・マスクはAIが最も賢い人間を超えるといつ予言しましたか?

A1: イーロン・マスクは、人工知能(AI)が最も賢い人間よりも優れるようになるのは、おそらく来年か2026年までに達成されると述べました。この発言は、ノルウェーの国富基金のCEOとのインタビュー中に行われました。

Q2: AI開発においてマスクが指摘した主要な課題は何ですか?

A2: マスクはAI開発における電力の確保が重要な課題となっていると指摘しました。特に、彼が設立したxAIのAIチャットボット「Grok」の訓練には、高性能なNvidiaのGPUが2万台以上必要であり、将来的な電力供給が課題になると警鈴を鳴らしました。

Q3: 「Grok」とは何ですか?

A3: 「Grok」は、イーロン・マスクが設立したxAIによって開発されたAIチャットボットです。マスクはこのチャットボットの次期バージョンが5月までに訓練を完了する見込みであると話しました。このAIチャットボットは、大規模な計算リソースを要求し、そのためには大量の電力が必要です。

Q4: テスラにとっての現在の競争状況はどうですか?

A4: マスクは、電気自動車分野において中国メーカーがテスラにとって最も厳しい競争相手になっていると述べました。テスラは電気自動車市場におけるリーダーですが、中国の企業との競争が激化しているとの認識を示しています。

Q5: AI技術の実用化に向けての課題は何ですか?

A5: AI技術の本格的な実用化に向けては、電力供給と高性能ハードウェアの確保が大きな課題です。これらのリソースが不足すれば、AI技術の発展やスケーラビリティが制限される可能性があります。テスラをはじめとする企業が、これらの課題にどのように取り組んでいくかが、今後のAI技術の進展において重要なポイントとなります。