Deprecated: The each() function is deprecated. This message will be suppressed on further calls in /home/zhenxiangba/zhenxiangba.com/public_html/phproxy-improved-master/index.php on line 456
GEMMA -人名の書き方・読み方 わかりやすく解説 Weblio辞書
[go: Go Back, main page]

GEMMAとは? わかりやすく解説

Gemma


Gemma

出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2026/03/17 05:29 UTC 版)

Gemma
開発元 Google DeepMind
初版 2024年2月21日 (2年前) (2024-02-21)[1]
最新版
Gemma 3 / 2025年3月12日 (12か月前) (2025-03-12)[2]
種別 大規模言語モデル
ライセンス Gemma License
公式サイト deepmind.google/models/gemma/
テンプレートを表示

Gemmaは、Google DeepMindによって開発されたオープンソースの大規模言語モデル (LLM) シリーズである。Googleの主力商用モデルであるGeminiと同様の技術に基づいている。最初のバージョンは2024年2月にリリースされ、続いて2024年6月にGemma 2、2025年3月にGemma 3がリリースされた。Gemmaの派生モデルとして視覚言語モデルであるPaliGemmaや、医療相談トピック向けのMedGemmaなども開発されている。

歴史

2024年2月、GoogleはGeminiの軽量版として機能するフリーかつオープンソースなLLMファミリーであるGemmaを初公開した。Gemmaでは2つのサイズのモデルが公開され、パラメータ数はそれぞれ20億 (2B) と70億 (7B) である。複数のメディアはこれを、MetaなどがAIモデルをオープンソース化していることへの対応であり、AIを独自のものとして保持してきたGoogleの長年の方針からの劇的な転換であると見なした[3][4][5]

Gemma 2は2024年6月27日にリリースされ[6]、Gemma 3は2025年3月12日にリリースされた[2][7]

概要

Geminiシリーズのモデルと同様の技術に基づき、GemmaはGoogleによる「AIをすべての人にとって役立つものにする」というミッションを支援するものとして説明されている[8]。また、Googleは医療分析用のMedGemmaなど、特定の用途に最適化された公式のGemma派生モデルを公開している[9]

リリース以来、Gemmaモデルのダウンロード数は1億5000万回を超え、Hugging Faceではコミュニティや個人によるファインチューニング版や量子化版を含め、7万以上のモデルが利用可能である[10]

最新世代のモデルであるGemma 3は、10億、40億、120億、270億 (1B, 4B, 12B, 27B) のパラメータサイズで公開され、140以上の言語をサポートしている。マルチモーダルモデルとして、テキストと画像の両方の入力に対応している[11]。さらに、Googleはスマートフォン、ノートパソコン、タブレットなどのデバイスでの実行に最適化された小型モデルであるGemma 3nも公開している[12]

アーキテクチャ

Gemmaの最新バージョンであるGemma 3は、グループクエリアテンション (GQA: grouped-query attention) とSigLIPビジョンエンコーダを備えたデコーダのみのTransformerアーキテクチャに基づいている。すべてのモデルのコンテキスト長は128Kであるが、Gemma 3 1Bのみコンテキスト長は32Kである[13]

量子化対応トレーニング (QAT: quantization-aware training) を使用してファインチューニングされた量子化バージョンも利用可能である[13]。これはメモリ使用量を大幅に改善するが、精度と正確さ (precision) に多少の悪影響を及ぼす[14]

公式派生モデル

Googleは、医療分析やプログラミングなど、特定の目的のために設計されたGemmaの公式派生モデルを開発している。

  • ShieldGemma 2 (4B): Gemma 3ファミリーに基づく、暴力的、危険、および性的に露骨な画像を識別およびフィルタリングするためのモデル[15]
  • MedGemma (4Bおよび27B): 同じくGemma 3に基づいており、画像分析などの医療アプリケーション向けのモデル。しかし、GoogleはMedGemmaが「まだ臨床レベルではない」ともしている[16]インドグルグラムにあるTap Healthの開発者は、MedGemmaを使用してAI支援による糖尿病管理アプリケーションを強化している[17][18]
  • DolphinGemma (約400M): ジョージア工科大学の研究者およびWild Dolphin Projectとの協力で開発された、音声分析を通じてイルカのコミュニケーションをよりよく理解することを目的としたモデル。モデルやデータは公開されていない[19][20]
  • CodeGemma (2Bおよび7B): コード補完および一般的なコーディングのために設計されたモデル群[21]PythonJavaC++など、複数のプログラミング言語をサポートする[22]
Gemmaモデルの技術仕様
世代 リリース日 パラメータ数 コンテキスト長 マルチモーダル 備考
Gemma 1 2024年2月21日 2B, 7B 8192 非対応 2Bモデルは7Bから蒸留 (distilled) された物。2Bはマルチクエリアテンションを使用し、7Bはマルチヘッドアテンションを使用。
CodeGemma 2024年4月9日[23] 2B, 7B 8192 非対応 コード生成用にファインチューニングされたGemma 1。
RecurrentGemma 2024年4月11日 2B, 9B 無制限(モデル学習時は8192トークン)   非対応 Transformerベースではなく、Griffinベース[24]
Gemma 2 2024年6月27日 2B, 9B, 27B   8192 非対応 27Bはウェブドキュメント、コード、科学論文から学習。Gemma 2 9Bは27Bから蒸留。Gemma 2 2Bは未リリースの7Bモデルから蒸留。グループクエリアテンション (Grouped-Query Attention) を使用[25]
PaliGemma 2024年7月10日 3B 8192 画像 テキストと画像を入力として受け取り、テキストを出力する視覚言語モデル。SigLIP-So400m画像エンコーダとGemma v1.0 2Bを接続して作成[26][27]
PaliGemma 2 2024年12月4日 3B, 10B, 28B 8192 画像 SigLIP-So400mとGemma v2.0 2B、9B、および27Bを組み合わせて作成。より多くの視覚言語タスクが可能[28][29]
Gemma 3 2025年3月12日 1B, 4B, 12B, 27B 131072 画像 全モデルが蒸留により学習。事後学習は数学、コーディング、チャット、指示追従、多言語(140言語対応)に重点。関数呼び出しが可能。1Bは視覚機能非対応[30][31]

注:オープンウェイトモデルは、推論時にコンテキスト長を再スケーリングできる。Gemma 1、Gemma 2、PaliGemma、およびPaliGemma 2では、コスト(KVキャッシュのサイズ)は、コンテキスト長に比例して増加する。Gemma 3では、ローカルアテンションとグローバルアテンションの分離により、成長曲線が改善されている[13]。RecurrentGemmaでは、2048トークン後のメモリ使用量は変わらない[24]

参考文献

  1. ^ Gemma: Introducing new state-of-the-art open models” (英語). The Keyword (2024年2月21日). 2026年2月19日閲覧。
  2. ^ a b Introducing Gemma 3: The most capable model you can run on a single GPU or TPU” (英語). The Keyword (2025年3月12日). 2026年2月19日閲覧。
  3. ^ Khan, Jeremy (2024年2月21日). “Google unveils new family of open-source AI models called Gemma to take on Meta and others—deciding open-source AI ain't so bad after all” (英語). Fast Company. オリジナルの2024年2月21日時点におけるアーカイブ。. https://web.archive.org/web/20240221135344/https://fortune.com/2024/02/21/google-new-family-open-source-ai-models-gemma/ 2026年2月19日閲覧。 
  4. ^ Alba, Davey (2024年2月21日). “Google Delves Deeper Into Open Source with Launch of Gemma AI Model” (英語). Bloomberg News. オリジナルの2024年2月21日時点におけるアーカイブ。. https://web.archive.org/web/20240221131813/https://www.bloomberg.com/news/articles/2024-02-21/google-releases-gemma-ai-model-for-open-source-developers 2026年2月19日閲覧。 
  5. ^ Metz, Cade; Grant, Nico (2024年2月21日). “Google Is Giving Away Some of the A.I. That Powers Chatbots” (英語). The New York Times. オリジナルの2024年2月21日時点におけるアーカイブ。. https://web.archive.org/web/20240221140434/https://www.nytimes.com/2024/02/21/technology/google-open-source-ai.html 2026年2月19日閲覧。 
  6. ^ Gemma 2 is now available to researchers and developers” (英語). Google (2024年6月27日). 2026年2月19日閲覧。
  7. ^ Welcome Gemma 3: Google's all new multimodal, multilingual, long context open LLM” (英語). Hugging Face (2025年3月12日). 2026年2月19日閲覧。
  8. ^ Gemma: Introducing new state-of-the-art open models” (英語). The Keyword (2024年2月21日). 2026年2月19日閲覧。
  9. ^ Gemma - Google DeepMind” (英語). Google DeepMind. 2026年2月19日閲覧。
  10. ^ Google's Gemma AI models surpass 150M downloads” (英語). TechCrunch (2025年5月12日). 2026年2月19日閲覧。
  11. ^ Welcome Gemma 3: Google's all new multimodal, multilingual, long context open LLM” (英語). Hugging Face (2025年3月12日). 2026年2月19日閲覧。
  12. ^ Gemma 3n モデルの概要”. Google AI for Developers. 2026年2月19日閲覧。
  13. ^ a b c Gemma Team (2025年). “Gemma 3 Technical Report” (英語). arXiv. 2026年2月19日閲覧。
  14. ^ What is quantization aware training?” (英語). IBM (2025年5月15日). 2026年2月19日閲覧。
  15. ^ ShieldGemma 2: Robust and Tractable Image Content Moderation” (英語) (2025年). 2026年2月19日閲覧。
  16. ^ MedGemma” (英語). Google Health AI Developer Foundations. 2026年2月19日閲覧。
  17. ^ MedGemma: Our most capable open models for health AI development” (英語). Google Research Blog (2025年10月28日). 2026年2月19日閲覧。
  18. ^ Tap Health: AI Diabetes Management Program” (英語). Tap Health (2026年2月19日). 2026年2月19日閲覧。
  19. ^ DolphinGemma: How Google AI is helping decode dolphin communication” (英語). Georgia Tech. 2026年2月19日閲覧。
  20. ^ DolphinGemma: How Google AI is helping decode dolphin communication” (英語). The Keyword (2025年4月14日). 2026年2月19日閲覧。
  21. ^ Google Launches Coding AIs That Could Rival Microsoft's GitHub Copilot” (英語). PCMag (2024年4月10日). 2026年2月19日閲覧。
  22. ^ CodeGemma”. Google AI for Developers. 2026年2月19日閲覧。
  23. ^ Gemmaのリリース”. Google AI for Developers (2024年4月9日). 2026年2月19日閲覧。
  24. ^ a b RecurrentGemma: Moving Past Transformers for Efficient Open Language Models” (英語) (2024年). 2026年2月19日閲覧。
  25. ^ Gemma 2: Improving Open Language Models at a Practical Size” (英語) (2024年8月2日). 2026年2月19日閲覧。
  26. ^ PaLI: Scaling Language-Image Learning in 100+ Languages” (英語). research.google. 2026年2月19日閲覧。
  27. ^ PaliGemma: A versatile 3B VLM for transfer” (英語) (2024年7月10日). 2026年2月19日閲覧。
  28. ^ Introducing PaliGemma 2 mix: A vision-language model for multiple tasks- Google Developers Blog” (英語). developers.googleblog.com. 2026年2月19日閲覧。
  29. ^ PaliGemma 2: A Family of Versatile VLMs for Transfer” (英語) (2024年). 2026年2月19日閲覧。
  30. ^ Gemma 3 Technical Report” (英語) (2025年). 2026年2月19日閲覧。
  31. ^ Gemma 3 モデルの概要”. ai.google.dev. 2026年2月19日閲覧。

外部リンク


GEMMA

出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2021/04/14 15:22 UTC 版)

エラスムス・ムンドゥス」の記事における「GEMMA」の解説

GEMMA: Program in Women's and Gender Studies 言語は英語、イタリア語スペイン語運営メンバー イタリア ボローニャ大学 ハンガリー 中央ヨーロッパ大学 スペイン グラナダ大学 イギリス ハル大学 スロベニア Ljubljana Graduate School of the Humanities ポーランド ウッチ大学 スペイン オビエド大学 オランダ ユトレヒト大学

※この「GEMMA」の解説は、「エラスムス・ムンドゥス」の解説の一部です。
「GEMMA」を含む「エラスムス・ムンドゥス」の記事については、「エラスムス・ムンドゥス」の概要を参照ください。

ウィキペディア小見出し辞書の「GEMMA」の項目はプログラムで機械的に意味や本文を生成しているため、不適切な項目が含まれていることもあります。ご了承くださいませ。 お問い合わせ


英和和英テキスト翻訳

英語⇒日本語日本語⇒英語

辞書ショートカット

すべての辞書の索引

「GEMMA」の関連用語

GEMMAのお隣キーワード
検索ランキング

   

英語⇒日本語
日本語⇒英語
   



GEMMAのページの著作権
Weblio 辞書 情報提供元は 参加元一覧 にて確認できます。

   
日外アソシエーツ株式会社日外アソシエーツ株式会社
Copyright (C) 1994- Nichigai Associates, Inc., All rights reserved.
ウィキペディアウィキペディア
All text is available under the terms of the GNU Free Documentation License.
この記事は、ウィキペディアのGemma (改訂履歴)の記事を複製、再配布したものにあたり、GNU Free Documentation Licenseというライセンスの下で提供されています。 Weblio辞書に掲載されているウィキペディアの記事も、全てGNU Free Documentation Licenseの元に提供されております。
ウィキペディアウィキペディア
Text is available under GNU Free Documentation License (GFDL).
Weblio辞書に掲載されている「ウィキペディア小見出し辞書」の記事は、Wikipediaのエラスムス・ムンドゥス (改訂履歴)の記事を複製、再配布したものにあたり、GNU Free Documentation Licenseというライセンスの下で提供されています。

©2026 GRAS Group, Inc.RSS