制御可能なAIでハルシネーションを回避する「Helpfeel AI」を発表

AI研究専門のワーキンググループが中心となり、今後1年間で3つの新機能をリリース予定

株式会社Helpfeelは、FAQの検索システム「Helpfeel」上で使用できる、生成AI(人工知能)を活用した機能群「Helpfeel AI」を発表する。

これまでに400以上のサイトに導入され、顧客の疑問を解決するサポート業務のDX化を牽引してきた「Helpfeel」の利便性が、生成AIの活用により飛躍的に向上する。
現在までに5つのAIソリューションを提供しており、今後1年間の計画として、AIを用いた新機能やサービスをさらに3つリリースする予定である。

また、Helpfeelは「Helpfeel AI」の発表に合わせて、未成熟なAIによるハルシネーションや情報漏洩から企業や行政の信用低下リスクを防ぎ、正確な情報をAI利用者に届ける「制御可能なAI」というコンセプトを提唱する。この思想のもと、今後のAI機能開発を一層加速していく。

「Helpfeel AI」特設ページ:https://www.helpfeel.com/helpfeel-ai

■「Helpfeel AI」を発表する背景

2023年にChatGPTのAPIが公開されて以来、再びAIブームが到来した。
生成AIは、文章や画像を自動生成する能力に優れている一方で、様々なリスクも存在する。
特に、生成AIが偽情報(*)を生成する「ハルシネーション」やAI学習による「情報漏洩」が問題視され、AI規制への法整備が国内外で進められている。
このような背景から、企業や行政には生成AIのリスクを適切に管理しながら、より賢く、そして正しく生成AIを活用することが求められる時代になった。
* 事実ではない情報のこと。昨今では偽情報と呼ばれることが多い。

■制御可能な「Helpfeel AI」の特長

Helpfeelは、AI規制の必要性が叫ばれる社会背景を踏まえ、「制御可能なAI」を提唱する。生成AIを活用するにあたっては、生成AIを人間がコントロールできることが不可欠だと考えている。生成AIのリスクを最小限に抑えつつ、間違った答えを出す可能性がある場合には、企業や行政が事前に訂正できることが重要である。

さらに、AIシステムの内部で何が行われているかが不透明なブラックボックス問題を防ぎ、人間が管理・監督できる仕組みを新たに開発。これにより、「説明可能なAI(Explainable AI)」から進化した「制御可能なAI・Helpfeel AI」を実現する。

出典元:プレスリリース
従来の生成AIは、猛獣のように制御が難しく、誤った情報を含む生成結果に翻弄されることが多々あったが、「Helpfeel AI」は、猛獣使いのように生成AIを檻の中で安全に運用できるため、正確な情報提供が可能である。

Helpfeelは、FAQの検索システム「Helpfeel」で利用できるAI機能「Helpfeel AI」によって、行政機関はもちろん、社内外からの問い合わせが多いエンタープライズ企業や金融機関、EC事業者、ならびにその問い合わせ対応を担うコンタクトセンターやカスタマーサポート部署における生成AIの活用を推進していく。

■「Helpfeel AI」今後の展望

Helpfeelは、慶應義塾大学環境情報学部教授であるテクニカルフェローの増井や、経済産業省の「未踏IT人材発掘・育成事業」で選出された「未踏スーパークリエータ」のエンジニアを複数擁し、プロダクトの研究開発を積極的に推進している。

数年前からワーキンググループを立ち上げ、高度な自然言語処理および生成AI活用(機械学習・深層学習技術)に関するアルゴリズムの研究開発を行っている。主に、AIのための統合的なデータ編集・分析・改善環境の開発と、「制御可能なAI」のための誰にとっても使いやすいインターフェース開発に注力している。「Helpfeel AI」は、このAI研究開発のワーキンググループが主導し、すでに5つのAIソリューションをリリースしており、今後1年間で、AIを用いた新機能やサービスをさらに3つリリースする計画である
詳細は、本日公開の「Helpfeel AI」特設ページをご確認いただきたい。
https://www.helpfeel.com/helpfeel-ai

Special Features

連載特集
See More