StockmarkのソブリンAIは、複雑な業務ドキュメントを理解・活用するために、データ・学習・判断の主導権を外部に依存せず、自ら保持することを前提とした生成AI設計です。
Stockmark LLMは、日本企業の業務文脈や専門知、非構造データを前提に設計されており、文書や図表に含まれる知を読み解き、使われるほど自社の競争力として蓄積されていきます。
便利さの裏で、知を手放さない。それが、私たちのソブリンAIです。
日本語圏で使われる知識やドキュメント形式をフルスクラッチから学習を行うことで、図表を含む複雑なビジネス文書に対してもハルシネーションを抑止した回答生成を行えます。
国産開発されたインハウスLLMだからこそ、各社のニーズに合わせた柔軟なチューニング・カスタマイズが可能となります。
データの保管場所や管理方法を自社で選択でき、外部プラットフォームに依存しない運用を実現します。
重要な情報資産を守りながら、柔軟かつ主体的なAI活用が可能になります。
| モデル | Score |
|---|---|
| Stockmark-LLM-100b | 5.97 |
| Llama2(tokyotech-llm—Swallow-70b-instruct-hf) | 5.59 |
| GPT-3.5(text-davinci-003) | 5.08 |
一般ベンチマークでの評価
| モデル | Score |
|---|---|
| Stockmark / Stockmark-LLM-100b | 0.90 |
| GPT-4-turbo | 0.64 |
| GPT-3.5-turbo | 0.44 |
当社が独自に設定した、ビジネス情報や最新時事話題に関する質問セット Business Questionsでビジネスドメインの質問へ正答計測を実施。
Stockmark-LLM-100bが、GPT-4-turboと比較した結果、高い精度で正答率を生成しました。
| モデル | sec per 100 char |
|---|---|
| Stockmark-LLM-100b | 1.86 |
| GPT-3.5-turbo | 2.15 |
| GPT-4-turbo | 5.48 |
| Llama2-70B | 5.48 |
| Swallow70B | 2.22 |
日本語性能の高い1000億パラメータのフルスクラッチモデル
Release Date 2025/3/18