中国の大規模言語モデル数:世界で2番目に2024年04月20日 21:14

国立国会図書館デジタルコレクション「浅草寺桜奉納花盛ノ図」を加工して作成
 スタンフォード大学の「人間中心AI研究所(HAI)」が発表した「AIインデックス・レポート2024」によれば、中国の大規模言語モデル数が世界で2番目に多いことが明らかになった。

 この報告書は、AIの重要性が日々高まっていることを示し、今年の内容、規模、範囲が例年を上回っている。その中で、23年のAI業界の主要なトレンドのうち、中国の大規模言語モデルの数が2位にランクされている。

 さらに、レポートによれば、産業界が引き続きAIの先端研究を主導しており、23年には51の有名な機械学習モデルが生まれた。一方、学術界の貢献は15にとどまっている。産学連携によって21の有名モデルが生まれ、その記録を更新した。新たに発表された基本モデルのうち、産業界からのものは108で、学術界からのものは28であった。

 最先端のAIモデルのトレーニングコストは高騰しており、例えばOpenAIのGPT-4のトレーニングには約7800万ドルの計算力が使用された。一方、グーグルのジェミニ・ウルトラは1億9100万ドルを費やした。

 このレポートによれば、米国は中国、EU、英国をリードし、トップクラスのAIモデル主要開発国となっている。23年には、米国の機関から発表された有名AIモデルが61あり、EUの21と中国の15をはるかに上回っている。

 世界的には、AIの潜在的な影響についての認識が深まり、それに伴う緊張感も高まっている。市場調査会社の「イプソス」による最新の調査によれば、過去1年間で、「AIは今後3−5年内に生活を深く変える」と考える人々の割合が60%から66%に急増している。

【視点】

産業界がAI研究を主導: 2023年に発表された51の有名機械学習モデルのうち、41は産業界による開発であった。学術界からの貢献は15にとどまっている。

産学連携が活発化: 2023年には、産学連携で21の有名モデルが生まれ、過去最多を記録した。

最先端モデルの訓練コストが急上昇: OpenAIのGPT-4はトレーニングに約7800万ドル、GoogleのGemini Ultraは1億9100万ドルの計算コストがかかった。

米国がトップクラスのAIモデル開発国に: 2023年、米国は61の有名AIモデルを発表し、中国(15)やEU(21)を大きく上回った。

中国、大規模言語モデル数で世界2位に: 中国は、大規模言語モデルの数で世界2位となった。

AIへの懸念も高まる: 市場調査会社イプソスの調査によると、「AIは今後3〜5年内に生活を大きく変える」と考える人が66%に増加した。

・スタンフォード大学人間中心AI研究所(HAI)が「AIインデックス・レポート2024」を発表。

・レポートでは、2023年のAI業界における10の重要トレンドを分析。

・中国は産学連携AIモデル開発で躍進、大規模言語モデル数は世界2位に。

・米国はトップクラスAIモデル開発国として君臨、EU、英国をリード。

・最先端AIモデルの学習コストは高騰、OpenAI GPT-4は7800万ドル、Google Gemini Ultraは1億9100万ドルを費やす。

・世界的なAIへの関心と期待が高まる一方、倫理や安全性への懸念も増大。

・2024年4月18日、中国系AI研究者李飛飛氏率いるスタンフォード大学人間中心AI研究所(HAI)は、「AIインデックス・レポート2024」を発表した。このレポートは、AIの能力や研究状況などをまとめたもので、今年版は内容、規模、範囲の面で例年を上回り、502ページに及ぶ大ボリュームとなっている。

・レポートによると、2023年のAI業界における主要トレンドは以下の10点が挙げられる。

1.産業界がAI研究を主導: 2023年に発表された51の有名機械学習モデルのうち、41は企業による開発でした。
2.産学連携が加速: 2023年には産学連携によるモデル開発が21件と過去最多を記録。
3.最先端モデルの学習コストが急上昇: OpenAIのGPT-4は7800万ドル、GoogleのGemini Ultraは1億9100万ドルの計算コストを費やした。
4.米国がトップクラスAIモデル開発をリード: 米国は61の有名AIモデルを発表し、中国(15件)、EU(21件)を大きく引き離した。
5.中国がAI言語モデル開発で躍進: 中国は15件の大規模言語モデルを発表し、世界2位に躍進した。
6.AI倫理への関心が高まる: 市場調査によると、「AIは今後3-5年内に生活を大きく変える」と回答する人が66%に増加。
7.AI悪用の懸念も高まる: AIの悪用事例が増加し、規制やガバナンスの必要性が高まっている。
8.AI人材不足が深刻化: AI開発人材の需要が世界中で高まっており、人材不足が課題となっている。
9.AI教育の重要性が増す: AIリテラシー教育の重要性が高まっており、教育プログラムが充実化している。
10.AI社会への影響が拡大: 医療、金融、製造業など様々な分野でAI活用が進んでいる。

・レポート全体を通して、AI技術の進展と社会への影響拡大が明確に示されている。一方で、倫理や安全性、人材不足などの課題も浮き彫りになっている。AIが今後も発展していくためには、これらの課題に積極的に取り組んでいくことが重要となる。

・スタンフォード大学人間中心AI研究所(HAI)が2024年4月15日、「AIインデックス・レポート2024」を発表した。このレポートは、AIの能力や研究状況などをまとめたもので、今年で8回目となる。

・中国、大規模言語モデル数で世界2位に:中国系AI研究者「AIの母」李飛飛氏率いるHAIのレポートによると、中国は23年に15の大規模言語モデルを発表し、米国に次ぐ世界2位となった。

・産業界がAI研究を主導:23年に発表された51の有名機械学習モデルのうち、41は産業界による開発であった。学術界からの貢献は15にとどまった。産学連携モデルも21と過去最多を記録している。

・最先端モデルのトレーニングコストが急増:OpenAIのGPT-4はトレーニングに約7800万ドル、GoogleのGemini Ultraは1億9100万ドルの計算コストがかかった。

・米国、トップクラスのAIモデル開発国に:米国は23年に61の有名AIモデルを発表し、EU(21)、中国(15)を大きく引き離した。

・AIへの懸念も高まる:市場調査会社イプソスの調査によると、「AIは今後3〜5年内に生活を深く変える」と考える人が過去1年間で60%から66%へと増加している。

・AI倫理への関心が高まる: レポートでは、AI開発における倫理的な問題や、AIバイアスの問題についても言及されている。

・AI人材不足が課題: レポートでは、AIの発展に伴い、AI人材の不足が課題となっていることも指摘されている。

・レポートは、AIが今後ますます私たちの生活に浸透していくと予測している。一方で、AI倫理やAI人材不足などの課題も指摘しており、これらの課題解決に向けた取り組みが重要になると結論付けている。

・このレポートは、AIの現状と未来を理解する上で貴重な資料となる。

【参考】

・大規模言語モデルとは

大規模言語モデル(LLM)は、膨大な量のテキストデータと最先端のディープラーニング技術を用いて構築された、高度な言語処理モデルである。従来の言語モデルと比べ、圧倒的な規模と処理能力を持ち、以下のような様々なタスクを実行することができる。

主な機能・能力

テキスト生成: 文章、詩、コード、台本、音楽作品、メール、手紙など、様々な形式のテキストコンテンツを生成できる。
言語翻訳: 複数の言語間で高精度な翻訳を行うことができる。
質問応答: 複雑な質問に対しても、的確かつ詳細な回答を提供できる。
要約: 長文の文章を簡潔にまとめ、重要なポイントを抽出することができる。
文章校正: 文法ミスやスペルミスを修正し、より自然で読みやすい文章に改善することができる。
創作活動: 小説、脚本、楽曲など、創造性を必要とする様々な創作活動を手助けすることができる。

仕組み

LLMは、主にTransformerと呼ばれるニューラルネットワークアーキテクチャを基盤として構築されている。Transformerは、文章全体を一度に処理し、単語間の関係性を学習することで、より高度な言語処理が可能になる。

データ

LLMの能力は、学習に使用されるデータ量と質に大きく左右される。そのため、LLMは、書籍、論文、ニュース記事、ソーシャルメディア投稿など、膨大な量のテキストデータで学習される。

活用例

LLMは、様々な分野で活用されている。以下は、その一例である。

顧客サービス: チャットボットによる顧客対応、FAQの作成
教育: 個別学習教材の作成、自動採点
コンテンツ制作: 記事作成、広告文作成、コピーライティング
エンターテイメント: ゲーム開発、映画制作
研究: 自然言語処理、人工知能

課題

LLMは、その高度な能力と可能性を秘めた一方で、以下のような課題も存在する。

バイアス: 学習データに含まれるバイアスを反映して、差別的な結果を生成してしまう可能性がある。
安全性: 悪意のある目的で使用され、フェイクニュースの生成やサイバー攻撃などに悪用される可能性がある。
倫理: 人工知能の倫理的な問題、人間とAIの関係性など、議論すべき課題が多く残されている。

今後の展望

LLMは、日進月歩で進化しており、今後さらにその能力と可能性が広がることが期待されている。一方で、上記のような課題も解決していく必要があり、倫理的な観点からも適切な開発と利用が求められている。

・最先端大規模言語モデルのトレーニングコスト

大規模言語モデル(LLM)のトレーニングには、膨大な計算資源と電力が必要であり、非常に高額なコストがかかる。具体的には、以下の要素がコストに影響する。

1. モデル規模

モデルの規模が大きくなるほど、多くのパラメータを学習する必要があり、その分、計算量とメモリ使用量が増加する。例えば、GPT-3のような1,750億パラメータのモデルをトレーニングするには、数百万ドルのコストがかかると推定されている。

2. ハードウェア

LLMのトレーニングには、高性能なGPUやTPUなどの専用ハードウェアが必要となります。これらのハードウェアは、通常のCPUよりも遥かに高速で処理能力が高いため、高価です。

3. 電力

LLMのトレーニングには、大量の電力を消費します。例えば、GPT-3のトレーニングには、数ヶ月間、数千ワットの電力を供給し続ける必要があり、電気代も相当な額になります。

4. データ

LLMの学習には、質の高い大量のテキストデータが必要である。これらのデータは、収集、クリーニング、アノテーションなどにコストがかかります。

5. 人件費

LLMの開発には、研究者やエンジニアなどの専門家が必要であり、人件費もコストに含まれます。

具体的なコスト例

GPT-3(1,750億パラメータ): 数百万ドル
Megatron-Turing NLG (5300億パラメータ): 700万ドル以上
Switch GPT-4 (10000億パラメータ): 推定1,000万ドル以上

コスト削減の取り組み

近年、LLMのトレーニングコストを削減するための様々な取り組みが進められている。

モデル圧縮: モデルの規模を維持しながら、不要なパラメータを削減することで、計算量とメモリ使用量を削減する。
効率的なアルゴリズム: より効率的な学習アルゴリズムを開発することで、計算時間を短縮し、電力を節約する。
クラウドサービス: クラウドサービス上でトレーニングを行うことで、ハードウェアや電力の調達・管理にかかるコストを削減できる。
分散型学習: 複数のコンピュータで並列に学習を行うことで、計算時間を短縮し、コストを削減できる。

今後の展望

LLMのトレーニングコストは、技術革新やスケールメリットにより、今後さらに低減していくことが期待されている。しかし、それでも従来のモデルと比べれば高額なコストであることは変わない。そのため、LLMの開発や利用には、十分な資金力とリソースが必要となる。

・有名なAIモデル

2024年現在、代表的な大規模言語モデル(LLM)は以下の通り。

1. GPT-3 (OpenAI)

開発元: OpenAI
パラメータ数: 1,750億
特徴: 高度な文章生成、翻訳、質問応答、コード生成が可能
代表的な活用例: チャットボット、自動ライティングツール、クリエイティブコンテンツ作成ツール

2. Jurassic-1 Jumbo (AI21 Labs)

開発元: AI21 Labs
パラメータ数: 1,780億
特徴: GPT-3と同等の性能を持ちながら、計算量が少ない
代表的な活用例: 顧客サービス、教育、エンターテイメント

3. Megatron-Turing NLG (Microsoft and NVIDIA)

開発元: MicrosoftとNVIDIA
パラメータ数: 5300億
特徴: 5つの言語間で高精度な翻訳が可能
代表的な活用例: 国際的なビジネス、教育、研究

4. WuDao 2.0 (Beijing Academy of Artificial Intelligence)

開発元: 北京人工知能研究院
パラメータ数: 1.75兆
特徴: 中国語処理に特化
代表的な活用例: 顧客サービス、教育、政府機関

5. Switch GPT-4 (DeepMind)

開発元: DeepMind
パラメータ数: 10000億
特徴: 少ないデータで学習可能、論理的な文章生成に優れる
代表的な活用例: 科学論文執筆、法律文書作成、教育

6. BLOOM (Big Language Open Model)

開発元: Hugging Face
パラメータ数: 1760億
特徴: オープンソースで、誰でも利用・改良が可能
代表的な活用例: 研究、教育、個人向けツール

7. LaMDA (Google AI)

開発元: Google AI
パラメータ数: 1370億
特徴: Google検索との連携、自然な会話が可能
代表的な活用例: Googleアシスタント、チャットボット、顧客サービス

8. BARD(Google AI)

開発元: Google AI
パラメータ数: 1370億
特徴: LaMDAと同様だが、異なるデータセットで学習
代表的な活用例: 詩、コード、脚本、音楽作品などの創作活動

9. WuDao 2.0 Pro (Beijing Academy of Artificial Intelligence)

開発元: 北京人工知能研究院
パラメータ数: 1.75兆
特徴: WuDao 2.0の強化版、より高度な能力を持つ
代表的な活用例: 研究、政府機関、企業

10. OPT (OpenAI)

開発元: OpenAI
パラメータ数: 1750億
特徴: GPT-3と同等の性能を持ちながら、オープンソースで利用可能
代表的な活用例: 研究、教育、個人向けツール

その他
上記以外にも、様々なLLMが開発されている。各モデルにはそれぞれ異なる強みや弱みがあり、用途によって最適なモデルを選択することが重要である。

・中国の有名なAIモデル

中国では、近年AI技術の発展が著しく、様々な分野でAIモデルが活用されている。以下、代表的な中国製AIモデルとその特徴をご紹介する。

1. WuDao 2.0 (北京人工知能研究院)

パラメータ数: 1.75兆
特徴: 中国語処理に特化しており、高精度な翻訳、要約、質問応答が可能。中国国内では、政府機関や金融機関などで幅広く活用されている。

2. Wenxin (Huawei)

パラメータ数: 2800億
特徴: 複数の言語に対応しており、翻訳、要約、文章生成など、様々なタスクを実行できる。HuaweiのスマートフォンやAIスピーカーなどに搭載されている。

3. BAIStudio (Baidu)

パラメータ数: 1000億
特徴: 医療画像診断、音声認識、自然言語処理など、様々な分野で利用可能なAIプラットフォーム。Baiduの検索エンジンや自動運転技術などに活用されている。

4. FudanNLP (Fudan University)

特徴: 中国語の自然言語処理に特化したオープンソースのAIツールキット。研究者や開発者によって、様々なAIモデルの開発に利用されている。

5. Tsinghua AI Open Platform (Tsinghua University)

特徴: 画像認識、音声認識、自然言語処理など、様々なAIモデルを無料で利用できるオープンソースプラットフォーム。教育や研究目的で広く活用されている。

その他

上記以外にも、中国では様々なAIモデルが開発・公開されている。中国のAI技術は、世界の中でもトップレベルにあり、今後さらに発展していくことが期待されている。

・AI基盤モデルとは:詳細解説

**AI基盤モデル(Foundation Model)**は、膨大な量のデータと最先端のディープラーニング技術を用いて構築された、高度な言語処理モデルである。従来の言語モデルと比べ、圧倒的な規模と処理能力を持ち、以下のような様々なタスクを実行することができる。

主な機能・能力

テキスト生成: 文章、詩、コード、台本、音楽作品、メール、手紙など、様々な形式のテキストコンテンツを生成できる。
言語翻訳: 複数の言語間で高精度な翻訳を行うことができる。
質問応答: 複雑な質問に対しても、的確かつ詳細な回答を提供できる。
要約: 長文の文章を簡潔にまとめ、重要なポイントを抽出することができる。
文章校正: 文法ミスやスペルミスを修正し、より自然で読みやすい文章に改善することができる。
創作活動: 小説、脚本、楽曲など、創造性を必要とする様々な創作活動を手助けすることができる。

仕組み

AI基盤モデルは、主にTransformerと呼ばれるニューラルネットワークアーキテクチャを基盤として構築されている。Transformerは、文章全体を一度に処理し、単語間の関係性を学習することで、より高度な言語処理が可能になる。

データ

AI基盤モデルの能力は、学習に使用されるデータ量と質に大きく左右される。そのため、AI基盤モデルは、書籍、論文、ニュース記事、ソーシャルメディア投稿など、膨大な量のテキストデータで学習される。

活用例

AI基盤モデルは、様々な分野で活用されている。以下は、その一例である。

顧客サービス: チャットボットによる顧客対応、FAQの作成
教育: 個別学習教材の作成、自動採点
コンテンツ制作: 記事作成、広告文作成、コピーライティング
エンターテイメント: ゲーム開発、映画制作
研究: 自然言語処理、人工知能
基盤モデルと従来モデルの違い

従来の言語モデルと比べ、AI基盤モデルは以下の点で優れている。

汎用性: 様々なタスクに適用できる
精度: より高い精度でタスクを実行できる
効率性: 少ないデータで学習できる
柔軟性: 容易にカスタマイズできる
代表的なAI基盤モデル

以下、代表的なAI基盤モデルとその特徴をご紹介する。

GPT-3(OpenAI): 1,750億パラメータ、人間品質の文章生成、翻訳、質問応答などが可能

Jurassic-1 Jumbo(AI21 Labs): 1,780億パラメータ、GPT-3と同等の性能を持ちながら計算量が少ない

Megatron-Turing NLG (Microsoft and NVIDIA): 5300億パラメータ、5つの言語間で高精度な翻訳が可能

WuDao 2.0 (Beijing Academy of Artificial Intelligence): 1.75兆パラメータ、中国語処理に特化

Switch GPT-4 (DeepMind): 10000億パラメータ、少ないデータで学習可能、論理的な文章生成に優れる

今後の展望

AI基盤モデルは、日進月歩で進化しており、今後さらにその能力と可能性が広がることが期待されている。一方で、以下のような課題も存在する。

バイアス: 学習データに含まれるバイアスを反映して、差別的な結果を生成してしまう可能性がある。
安全性: 悪意のある目的で使用され、フェイクニュースの生成やサイバー攻撃などに悪用される可能性がある。
倫理: 人工知能の倫理的な問題、人間とAIの関係性など、議論すべき課題が多く残されている。
これらの課題を克服しながら、AI基盤モデルは、様々な分野で社会に貢献していくことが期待されている。

(【参考】はブログ作成者が付記した。)

引用・参照・底本

スタンフォード大がAIレポートを発表 中国の大規模言語モデル数が世界2位 人民網日本語版 2024.04.18

http://j.people.com.cn/n3/2024/0418/c95952-20158589.html

スタンフォード大学人間中心AI研究所 AIインデックス・レポート2024:
https://hai.stanford.edu/research/ai-index-report

AI Index Report 2024: https://hai.stanford.edu/news/what-expect-ai-2024

コメント

トラックバック