複雑な業務ドキュメントを理解し、意思決定を支えるソブリンAI

  • Stockmark

    StockmarkのソブリンAIは、複雑な業務ドキュメントを理解・活用するために、データ・学習・判断の主導権を外部に依存せず、自ら保持することを前提とした生成AI設計です。

    Stockmark LLMは、日本企業の業務文脈や専門知、非構造データを前提に設計されており、文書や図表に含まれる知を読み解き、使われるほど自社の競争力として蓄積されていきます。

    便利さの裏で、知を手放さない。それが、私たちのソブリンAIです。

3つの特徴

  • ハルシネーション抑止

    ハルシネーション抑止

    日本語圏で使われる知識やドキュメント形式をフルスクラッチから学習を行うことで、図表を含む複雑なビジネス文書に対してもハルシネーションを抑止した回答生成を行えます。

  • カスタマイズ可能な軽量モデル

    カスタマイズ可能な軽量モデル

    国産開発されたインハウスLLMだからこそ、各社のニーズに合わせた柔軟なチューニング・カスタマイズが可能となります。

  • データ主導権のコントロール

    データ主導権のコントロール

    データの保管場所や管理方法を自社で選択でき、外部プラットフォームに依存しない運用を実現します。

    重要な情報資産を守りながら、柔軟かつ主体的なAI活用が可能になります。

公開モデル比較表

Vicuna Benchmarkの評価結果

モデル Score
Stockmark-LLM-100b 5.97
Llama2(tokyotech-llm—Swallow-70b-instruct-hf) 5.59
GPT-3.5(text-davinci-003) 5.08

一般ベンチマークでの評価

Stockmark Business Questions 質問回答精度

モデル Score
Stockmark / Stockmark-LLM-100b 0.90
GPT-4-turbo 0.64
GPT-3.5-turbo 0.44

当社が独自に設定した、ビジネス情報や最新時事話題に関する質問セット Business Questionsでビジネスドメインの質問へ正答計測を実施。

Stockmark-LLM-100bが、GPT-4-turboと比較した結果、高い精度で正答率を生成しました。

推論速度計測

モデル sec per 100 char
Stockmark-LLM-100b 1.86
GPT-3.5-turbo 2.15
GPT-4-turbo 5.48
Llama2-70B 5.48
Swallow70B 2.22

リリースモデル

  • Stockmark-2-VL-100B-bet

    ハルシネーションを大幅抑止した1,000億パラメータのドキュメント読解基盤モデル

  • Stockmark-2-100B-Instruct-beta

    日本語性能の高い1000億パラメータのフルスクラッチモデル
    Release Date 2025/3/18

  • Stockmark-LLM-100

    事前学習モデル
    Release Date 2024/5/15

  • stockmark-100b-instruct-v0.1

    指示学習モデル
    Release Date 2024/5/15

  • Stockmark-LLM-13

    Release Date 2023/10/2

  • 研究開発トップ

  • Stockmark LLM

  • 論文・学会発表

  • トピックス

  • Tech blog