논문

[매일 초록+서론+결론 읽기:: AI 인공지능] 인공지능 제품에 대한 인간의 믿음을 높이는 방법

W[더블유] 2024. 2. 24. 10:51

제목: Effect of Confidence and Explanation on Accuracy and Trust Calibration in AI-Assisted Decision Making

저자: Yunfeng Zhang, Q. Vera Liao, Rachel K. E. Bellamy

 

논문에 따르면, 인공지능 제품의 정확도가 높다고 해서 해당 인공지능 제품에 대한 믿음이 높다는 것을 의미하지는 않는다. 인공지능 제품은 확률적이기 때문에 에러가 발생할 수 있기 때문이다. 인공지능 제품의 정확도에 대한 점수를 표기할 수 있을 때 사람들의 인공지능 제품에 대한 신뢰가 상승할지를 실험을 통해 보여준다. 

- Note. 인공지능 '제품'이라는 표현을 내가 만들어냈는데, 인공지능의 도움을 받아서 의사결정을 하는 가상의 시나리오 (AI-assisted decision making scenarios)가 문헌에서 보면 인간이 인공지능을 활용한 제품을 이용해서 중요한 의사결정을 하는 시나리오들에 관한 내용이어서 그렇게 작성하였습니다.

 

설명 가능한 AI(XAI, Explainable Artificial Intelligence)에 관한 논문이고, 큰 학문적 범주는 인간-컴퓨터-상호작용(HCI, Human-Computer Interaction)입니다. 인간의 의사 결정을 돕는 인공지능 제품을 이용할 때 인간의 인공지능에 대한 신뢰도를 높이는 방법에 대한 연구입니다. 

 

더 공부해볼 내용: calibrate하는 방법론(machine learning technique)

 

논문 링크: https://arxiv.org/abs/2001.02114