Google、オープンソースモデル「Gemma」公開

Googleが先端技術に基づいた軽量なオープンソースAIモデル「Gemma」を公開しました。Geminiとは異なるアプローチで、GoogleはAIモデル市場に飛び込みます。Gemmaの特徴や技術的詳細、安全性について詳しくご紹介します。

Sara Nanase
February 22, 2024

Googleは、オープンソースAIモデル「Gemma(ジェンマ)」を公開し、非公開モデルであるGeminiとは別に、Gemmaを通じてオープンソースAIモデル市場にも参入することになります。

Googleによると、「Gemma」はGeminiの開発における核心技術と研究を基に作られた、最先端の軽量オープンモデルです。Gemmaは、「主要なベンチマークではるかに大きなモデルを上回る」、「開発者のノートブックやデスクトップ、Googleクラウドでも直接実行できる」特徴を持っています。Google DeepMindとGoogleの様々な部門が協力して開発された、GoogleのGemmaは、今日から世界中で利用可能です。

Google Gemmaとは?

Google Gemmaは、Googleが開発した最新のAIモデルであり、大量のデータから学習することで、人間のようにテキストを生成したり、画像を認識する能力を持っています。特に、自然言語処理(NLP)の分野において、従来のモデルを大きく上回る性能が期待を集めています。

  • 軽量化と先端技術: Gemmaモデルは軽量化されながらも、最新のAI研究と技術に基づいた先端性能を提供し、さまざまなコンピューティング環境での利用ができます。
  • モデル構成: Gemmaシリーズには、Gemma 2BとGemma 7Bの2つの主要モデルが含まれており、それぞれ事前トレーニング(pre-trained)されたバージョンと、指示に従って調整された(instruction-tuned)バージョンが提供されています。
  • 多目的設計: これらのモデルは、テキスト生成、要約、翻訳、データ分析など、さまざまなAIタスクに使用できるよう設計されています。
Gemma Performance Score

Google Gemmaの特徴

Gemmaモデルは、フレームワークやツール、ハードウェアを含む全ての面で最適化されています。要約や検索強化生成(RAG)などの特定の用途に応じて、自分のデータを使ってカスタマイズすることが可能です。また、Gemmaは、様々なツールやシステムのサポートも提供しています。

  • マルチフレームワークツール:Keras 3.0、Pytorch、JAX、Hugging Face Transformersといった複数のフレームワークを活用することができます。これにより、推論やカスタマイズを行う際に、好みのフレームワークを使用することができます。
  • デバイス間の互換性:Gemmaモデルは、ノートブック、デスクトップ、IoT(Internet of Things)、モバイル、クラウドを含む幅広いデバイスタイプで実行されるため、ユーザーは、幅広いデバイスでAI機能にアクセスできます。
  • 最先端のハードウェアプラットフォーム:GoogleはNVIDIAと協力して、NVIDIA GPUに最適化されたGemmaモデルを提供し、業界最高のパフォーマンスと最先端の技術を含む統合機能を保証します。
  • Google Cloudに最適化:Gemmaモデルは、Google CloudのVertex AIプラットフォームと統合されており、開発者や研究者はモデルを簡単にデプロイおよび管理することができます。Vertex AIはモデルのトレーニング、評価、デプロイメントに幅広いMLOpsツールを提供しています。

Google Gemmaモデルの技術的な詳細

  • 今回公開されるモデルは、Gemma 2BとGemma 7Bの2種類で、それぞれ事前訓練(pre-trained)及び指示調整(instruction-tuned)されたバリエーションが提供されます。
  • Gemmaを利用する際に、より安全な制作をするための指針と必須ツールをResponsible Generative AI Toolkit(新しい責任を持つ生成型AIツールキット)として、提供します。
  • Keras 3.0、JAX、PyTorch、TensorFlowといった主要なフレームワークで、推論および監督学習(supervised fine-tuning, SFT)ができるツールチェーンを提供します。
  • すぐに使用できるColabやKaggleのノートブック、及びHugging Face、MaxText、NVIDIA NeMoなどの人気ツールとの統合により、ユーザーがGemmaを簡単に使用できるようになっています。
  • 事前訓練され、指示に応じて調整されたGemmaモデルは、ノートブック、業務用コンピュータ、Google Cloudで利用可能で、Vertex AIやGoogle Kubernetes Engine(GKE)を利用して簡単にデプロイできます。
  • Gemmaは、NVIDIAのGPUやGoogle CloudのTPUを含む、様々なAIハードウェアプラットフォーム全体で最適化されており、業界最高水準の性能を保証します。
Gemmaの性能

安全な使用のためのデータ処理

  • データフィルタリング:Gemmaは、より安全で信頼性の高い事前学習モデルにするため、特定の個人情報やその他の敏感データを学習セットから自動的にフィルタリングする技術を採用しました。
  • 人間のフィードバックの活用:Gemmaモデルは、微調整を施し、人間のフィードバックを基にした強化学習(RLHF)を活用しました。
  • 安全なデプロイメント:Googleは、Responsible Generative AI Toolkit(新しい責任を持つ生成型AIツールキット)をGemmaと共に公開し、開発者や研究者がより安全で責任あるAIアプリケーションを開発できるように支援します。
Gemmaのテスト結果

Responsible Generative AI Toolkit(新しい責任を持つ生成型AIツールキット)とは?

  • 安全性分類:最小限の例でも安全性を構築する新しい方法論を提供します。
  • デバッグサポート:モデルデバッグツールは、ユーザーがGemmaの動作をよりよく深く理解し、潜在的な問題も解決できるようにサポートします。
  • ガイダンス提供:大規模言語モデル(LLM)の開発と展開におけるGoogleの経験を基に、モデル構築のための実例を確認できます。

出典:Gemma: Introducing new state-of-the-art open models

よくある質問

Q1: Google Gemmaとは何ですか?

A1: Google Gemmaは、Googleが開発した最新のAIモデルで、大量のデータから学習し、テキスト生成や画像認識などの人間のような能力を持つ、軽量かつ最先端のオープンソースAIモデルです。特に自然言語処理(NLP)の分野で優れた性能を発揮します。

Q2: Gemmaモデルの特徴は何ですか?

A2: Gemmaモデルは、軽量化されているにもかかわらず先端技術を駆使し、様々なコンピューティング環境で利用可能です。Keras 3.0、Pytorch、JAX、Hugging Face Transformersを含む複数のフレームワークをサポートし、NVIDIA GPUやGoogle Cloud TPUなどの最先端ハードウェアで最適化されています。

Q3: Gemmaモデルはどのようにして利用できますか?

A3: Gemmaモデルは、ColabやKaggleのノートブック、Hugging Face、MaxText、NVIDIA NeMoなどの人気ツールと統合されており、簡単に利用開始できます。ノートブック、デスクトップ、Google Cloudを含む幅広いプラットフォームで使用可能です。

Q4: Gemmaモデルで安全なAIアプリケーションを開発するには?

A4: Googleは、Responsible Generative AI Toolkitを提供しており、これには安全性分類、デバッグサポート、責任あるAIアプリケーション開発のためのガイダンスが含まれています。これにより、開発者や研究者はより安全で責任あるAIアプリケーションを開発できます。

Q5: Gemmaモデルのバリエーションにはどのようなものがありますか?

A5: Gemmaシリーズには、Gemma 2BとGemma 7Bの2つの主要モデルがあり、それぞれが事前トレーニングされたバージョンと指示に応じて調整されたバージョンで提供されます。これにより、テキスト生成、要約、翻訳、データ分析などの多目的に使用できます。

#Google AIモデル #オープンソースAI #人工知能 #自然言語処理(NLP)#AIハードウェア最適化