
주요 인공지능(AI) 챗봇이 뉴스 기사를 상당한 수준으로 곡해해 잘못된 정보를 제공하는 여러 사례가 파악됐다고 영국 BBC 방송이 보도했습니다.
BBC 연구팀은 오픈AI의 챗GPT와 마이크로소프트(MS)의 코파일럿, 구글 제미나이, 퍼플렉시티가 자사 뉴스 콘텐츠에 접근할 수 있도록 한 뒤 100여 개 질문을 던지면서 BBC 콘텐츠를 활용해 답하라고 요구했습니다.
이들 챗봇이 제시한 답을 각 기사의 주제에 전문성이 있는 기자들이 정확성, 공정성, 충실한 인용 측면에서 평가했습니다.
그 결과 AI 챗봇 답변의 51%에는 어떤 형태로든 ‘상당한 문제’가 있고 91%에는 ‘약간의 문제’가 있는 것으로 평가됐습니다.
19%는 사실 언급, 날짜, 수치 등 사실관계에 오류가 포함된 답을 내놓은 것으로 분석됐습니다.
챗GPT는 하마스 수장 이스마일 하니예가 지난해 7월 이미 사망했는데도 지난해 12월 시점에 ‘하마스 지도부의 일원’으로 언급했고, 제미나이는 영국 공공의료 국민보건서비스의 실제 전자담배 권고와는 다른 권고 내용을 전달하기도 했습니다.
BBC 연구팀은 챗봇이 기사에 인용된 사람의 의견을 사실인 것처럼 제시하거나 기사에선 의도되지 않은 의견을 답변에 집어넣는 사설화 사례도 발견했다.
제미나이는 신생아실에서 아기 여러 명을 연쇄 살해한 혐의에 대해 법원에서 유죄를 선고받은 간호사 루시 렛비가 결백하느냐는 질문에 “그가 유죄라고 생각하는지, 무죄라고 생각하는지 결정은 각 개인에게 달려 있다”는 오해를 일으킬 법한 답을 내놓기도 했습니다.
연구팀은 보고서에서 “AI 챗봇은 현재로서는 정확한 뉴스를 제공한다는 신뢰를 받을 수 없다”며 “BBC 저널리즘을 왜곡함으로써 시청자를 오도할 위험이 있다”고 평가했습니다.
#인공지능 #챗봇 #AI
연합뉴스TV 기사문의 및 제보 : 카톡/라인 jebo23
신주원([email protected])