生成AIを利用するシステムの安全性評価を支援する テスト観点表の提案
ソフトウェア品質管理研究会 研究コース5(2024年)
生成AIは,企業活動の生産性を向上させる技術として注目される一方,利用の際には出力された内容が個人や社会に危害を及ぼすリスクを考慮し,安全性を確保することが重要である.既に生成AIの安全性確保のための評価方針やベンチマークが提案されているが,開発者がテストケース作成時に考慮すべき観点の包括的な整理は行われていない.本論文では,生成AIを利用するシステムの安全性に関するテストケース作成を支援する観点表を提案する.本観点表は,4つのカテゴリに対して合計18個の安全性の評価観点を定義している.また,21名の被験者に対して評価実験を実施し,観点表の利用によって作成されたテストケースの多様性が向上することを確認した.