AIシステム開発におけるAI開発者とシステム開発者のギャップ解消に向けたAI説明技術の検証
ソフトウェア品質管理研究会 研究コース5「人工知能とソフトウェア品質」(2020年)
ファジーな機能を実現し、識別や予測の失敗発生は常に起きうるAIシステムに対しては、「納得して受け入れる」ことの困難さが言われています。
一方で、AIの出力等について説明を行うXAI(eXplainable AI)技術は大きな注目を浴びていますが、それが果たす役割についてはまだ合意がなされていません。
本研究では、特にAI専門家と非専門家の差に着目しつつ、納得という観点からAIの失敗やその説明に関する人間のとらえ方をしっかりと調査し論じています。
一方で、AIの出力等について説明を行うXAI(eXplainable AI)技術は大きな注目を浴びていますが、それが果たす役割についてはまだ合意がなされていません。
本研究では、特にAI専門家と非専門家の差に着目しつつ、納得という観点からAIの失敗やその説明に関する人間のとらえ方をしっかりと調査し論じています。