日本の大規模言語モデル「Stockmark-LLM-100b」がハルシネーションを抑制
2024.10.20(日)

AIの発展は日進月歩で進んでおり、その中でも言語モデルの大規模化が注目されている。特に国内では、ベンチャー企業ストックマークが1000億パラメーターという国内最大級の大規模言語モデル「Stockmark-LLM-100b」を開発し、5月16日に公開した。
同モデルは、独自に収集したビジネスドメインの日本語データを中心に事前学習を行っており、日本語やビジネス、時事話題に精通しているのが特徴だ。さらに、AIが根拠のない嘘を答える「ハルシネーション」を大幅に抑止することに成功している。
従来の言語モデルではハルシネーションが問題視されていたが、ストックマークは「分からない」と答えさせることで、この課題を克服した。同社は「ビジネスシーンでも信頼して活用できる」と自信を見せている。
筆者が実際に試したところ、Stockmark-LLM-100bは誤った回答を示さなかった。ちなみに、他大規模言語モデルでも同様の検証をしたところ、正しく回答できた(ハルシネーションがなかった)のはOpenAIの最新モデルGPT4oとGemini1.5Proだけであった。ClaudeOpasやCommand R+などでは誤った回答を示した。
オープンソース化、誰でも自由に利用できる
Stockmark-LLM-100bの性能は高く評価されている。言語モデルの評価指標「VicunaQA Benchmark」では、Llama2やGPT-3.5を上回る点数を獲得した。また、日本語の推論速度においても、GPT-4-turboを上回る高速性を実現している。
同社の独自の質問セットでは正答率が9割を超えており、特定分野ではGPT-4-turboを上回る精度を持つと主張する。
なお、この開発は経済産業省とNEDOが主催する「GENIAC」プロジェクトの一環として、産総研との共同研究で行われた。国内の生成AI開発力強化を目指す取り組みの成果が、いち早く実を結んだ形だ。
ストックマークは、Stockmark-LLM-100bをオープンソース(MIT License)で公開し、誰でもダウンロードして利用できるようにしている。デモ版も用意されているため、気になる方はぜひチェックしてほしい。
【関連リンク】
・ハルシネーションを大幅抑止し専門的な質問にも正確な回答が可能な生成AI ストックマーク 1,000億パラメータ規模の独自LLMを公開(Stockmark)
https://stockmark.co.jp/news/20240516
関連記事
TEXT:PreBell編集部
PHOTO:iStock
-

インターネットの上手な歩き方 〜湯川鶴章さんの場合〜 Vol.1 愛用アプリ・サービス編
提供元:Prebell10/23(水) -

これは買いでしょ!Fire TV stickでテレビが進化!リモコンで王様気分にも!?【IoTでスマートな暮らし】
提供元:Prebell10/23(水) -

これで買い忘れの心配なし!日用品はスマートマットライトが自動で補充してくれるぞ!【スマートにいかない私たちの話】
提供元:Prebell10/23(水) -

敬老の日のプレゼントにも。忘れ物を防止する紛失防止タグ「MAMORIO」
提供元:Prebell10/23(水) -

ボーカルトレーナー運営!ハッピーに歌が上手くなる奇跡のチャンネルでうれしくなるほど上達【暮らし、楽しむ、YouTube】
提供元:Prebell10/23(水)

