大規模言語モデルにおけるHallucination検知手法の検討
大規模言語モデルの社会実装と共に、モデルの出力に含まれるHallucination検知が重要な課題となっている。その課題を踏まえ、プロンプト及びモデルの出力のみを活用するHallucination検知手法を検討している。 モデル内部情報(トークン出力確率など)や、外部DBに含まれる情報をもとにしたHallucination検知手法とは異なり、ゼロリソースでのHallucination検知をスコープとして検討している。 学会発表:2024年度人工知能学会全国大会、言語処理学会第31回年次大会(予定) (論文等に所属企業名の記載があるが、業務ではなく自己研鑽として実施)