目次
記事の要約
- MicrosoftがPhi-3ファミリーのオープンAIモデルを発表
- 38億パラメータのPhi-3-miniがAzure、Hugging Face、Ollamaで利用可能に
- 同サイズ、およびそれより大きいモデルを様々なベンチマークで凌駕
MicrosoftがPhi-3ファミリーのオープンAIモデルを発表
Microsoftは2024年4月23日、Phi-3ファミリーと呼ばれるオープンAIモデルを発表した。このモデルは、同サイズおよびそれより大きいモデルを様々な言語、推論、コーディング、数学のベンチマークで上回る性能を持つ、最も有能で費用対効果の高い小規模言語モデル(SLM)である。
Phi-3ファミリーは、様々な生成AIアプリケーションの作成と構築において、顧客により実用的な選択肢を提供し、高品質なモデルの選択肢を拡大するものである。 Phi-3-miniは、既にMicrosoft Azure AI Studio、Hugging Face、Ollamaで利用可能になっているのだ。
今後数週間のうちに、Phi-3ファミリーにさらにモデルが追加され、顧客に品質とコストのバランスにおいてさらに柔軟性が提供される予定だ。Phi-3-small(70億パラメータ)とPhi-3-medium(140億パラメータ)は、まもなくAzure AIモデルカタログおよびその他のモデルガーデンで利用可能になる。
Phi-3モデルのスペックと利用方法
モデル名 | パラメータ数 | コンテキスト長 | 利用可能プラットフォーム |
---|---|---|---|
Phi-3-mini | 38億 | 4K、128Kトークン | Microsoft Azure AI Studio、Hugging Face、Ollama |
Phi-3-small | 70億 | – | Azure AIモデルカタログ、その他のモデルガーデン(近日公開予定) |
Phi-3-medium | 140億 | – | Azure AIモデルカタログ、その他のモデルガーデン(近日公開予定) |
小規模言語モデル(SLM)のメリット
Phi-3のような小規模言語モデルは、様々な利点を持つ。リソースの制約がある環境、特にオンデバイスやオフライン推論シナリオに適しているのだ。
- 低遅延性
- 低コスト
- 容易なファインチューニング
その小型サイズにより、計算リソースが限られた環境でも、高速な応答時間と低コストでの運用が可能となる。また、ファインチューニングやカスタマイズも容易で、費用対効果が高い点が大きなメリットだ。
Phi-3に関する考察
Phi-3は、その高い性能と費用対効果の良さから、様々な分野での活用が期待できる。特に、インターネット接続が限られる地域での活用は、AI技術の普及に大きく貢献するだろう。しかし、事実知識に関するベンチマークでは、モデルサイズが小さい分、性能が劣る可能性がある点には注意が必要だ。
今後の課題としては、より多くの言語やタスクに対応できるようモデルの改良を進めること、そして、安全性の確保と倫理的な問題への対応が挙げられる。Microsoftが責任あるAI開発の原則を遵守し、Phi-3の更なる発展に繋げていくことが重要である。
また、Phi-3の成功は、小規模言語モデルの潜在能力を示すものであり、今後、より多くの企業がSLMの開発に注力する可能性が高い。この競争は、AI技術の進歩を加速させ、より多くのユーザーがAIの恩恵を受けられる社会の実現に繋がるだろう。
参考サイト/関連サイト
- Microsoft.「Introducing Phi-3: Redefining what’s possible with SLMs」.https://azure.microsoft.com/en-us/blog/introducing-phi-3-redefining-whats-possible-with-slms/, (参照 2025-05-04).