
AI 챗봇의 오작동, 사회적 파장을 일으키다
최근의 연구에 따르면, AI 챗봇이 허위 정보를 확산하는 경향이 전년도에 비해 두 배로 증가한 것으로 나타났습니다. 주요 AI 생성 도구들이 현재 뉴스 주제와 관련하여 35%의 확률로 잘못된 정보를 반복하고 있다고 합니다. 이는 AI와 사회 전반에 걸쳐 심각한 문제를 야기할 수 있습니다. 특히, 이러한 현상은 AI가 실시간 웹 검색 기능을 도입하면서 더욱 두드러졌습니다. 챗봇은 더 이상 질문에 답변을 거부하지 않고, 대신 “오염된 온라인 정보 생태계”로부터 정보를 끌어와 잘못된 정보를 퍼뜨리게 되었죠.
구체적 수치로 본 AI 챗봇의 허위 정보 확산
Newsguard의 연구는 Inflection의 모델이 56.67%의 비율로 허위 정보를 퍼뜨리는 최악의 결과를 보였으며, Perplexity가 46.67%로 그 뒤를 이었습니다. ChatGPT와 Meta는 40%의 비율로 거짓 주장을 반복했으며, Copilot과 Mistral은 각각 36.67%를 기록했습니다. 반면에 Claude와 Gemini는 비교적 낮은 오류율을 보였습니다. Perplexity의 경우, 1년 전만 해도 100%의 반박률을 기록했으나 현재는 거의 절반의 경우에서 잘못된 정보를 반복하고 있습니다.
변화하는 산업 동향과 미래 전망
AI 챗봇의 성능 향상과 함께 정보 신뢰성 문제는 더욱 중요해졌습니다. AI 시스템이 실시간 웹 검색을 통해 얻는 정보들은 종종 신뢰할 수 없는 출처에서 얻어지며, 이는 사용자들에게 잘못된 안전감을 제공합니다. Microsoft의 Copilot은 프라브다와 같은 선전 네트워크의 직접적인 인용을 중단하였으나, 여전히 러시아 플랫폼 VK에서 제공하는 소셜 미디어 게시물을 출처로 사용하고 있습니다. 이러한 상황은 AI가 참과 거짓을 구분하는 능력을 갖추지 못하고 있음을 보여줍니다.
향후 전망과 시사점
AI 챗봇의 정보 신뢰성 문제는 단순한 기술적 결함을 넘어 사회적 영향을 미치고 있습니다. 개발자와 기업들은 AI 모델이 잘못된 정보를 생성하지 않도록 개선해야 하는 과제를 안고 있습니다. 또한, 정부와 규제 기관은 AI가 제공하는 정보의 정확성을 감시하는 역할을 강화해야 할 것입니다. 이러한 문제를 해결하기 위해서는 더 나은 데이터 검증 메커니즘과 AI 모델의 투명성이 필요합니다.
참고
Jonathan Kemper, Leading AI chatbots are now twice as likely to spread false information as last year, study finds, the-decoder.com