文章の作成や要約に向いている生成AIとは異なり、関連性の解析に優れたKIBIT
生成AI 、中でも2022年末から話題をさらったChatGPTは、文章の作成や要約に優れており大きな注目を浴びていますが、これを支えるのは、自然な文章の生成に特化したアルゴリズムです。
生成AI のChatGPT*やBERT*などは、文章の生成に特化したアルゴリズムである一方、言語の関連性を見つける点においては限られた精度しか持っていません。生成AIのアプローチは、関連性の比較や語の重み付けなどが文書比較に最適化してはいないからです。
KIBIT Amanogawaは、非連続的発見の概念に基づくアプローチにより、未報告の関連をも予測し入力単語や文章との関連性のある論文を高い精度で見出せます。KIBITは文章生成が目的ではなく、創薬研究の新たな仮説を生成することに焦点を当てているためです。
*GPT=Generative Pre-trained Transformer(事前学習済みの生成Transformer)、BERT=Bidirectional Encoder Representations from Transformers(Transformerによる双方向のエンコード表現)。いずれもディープラーニングモデルの一つTransformer(トランスフォーマー:2017年発表の自然言語処理のモデル)に基づく言語処理手法。