
인공지능, 특히 챗봇과 같은 대화형 AI 인터페이스의 접근성이 증가함에 따라 흥미로운 기회와 중요한 과제가 모두 제기됩니다. AI가 일상생활, 특히 젊은 계층에 통합됨에 따라 책임감 있는 개발 및 사용을 보장하는 것이 무엇보다 중요해집니다. 이 기술의 급속한 성장은 아동 및 청소년에 대한 잠재적 영향을 신중하게 고려해야 하며, 규제 기관이 이 분야에서 활동하는 기업의 관행을 자세히 살펴보도록 촉구하고 있습니다.
FTC, 미성년자를 위한 AI 챗봇 안전 조사
미국 연방거래위원회(FTC)는 미성년자를 위해 설계된 AI 챗봇 동반 제품과 관련하여 Alphabet, CharacterAI, Instagram, Meta, OpenAI, Snap, xAI 등 7개 주요 기술 기업에 대한 조사를 시작했습니다. 이 조사는 이러한 기업이 안전, 수익화 전략 및 아동과 청소년에 대한 부정적인 영향을 완화하기 위한 노력을 어떻게 평가하는지 이해하는 것을 목표로 합니다. 또한 FTC는 부모가 이러한 AI 동반자와 관련된 잠재적 위험에 대해 적절하게 알고 있는지 확인하고자 합니다. 이 조사는 AI 챗봇 및 젊은 사용자와의 상호 작용을 둘러싼 여러 논란에 뒤이어 이루어졌습니다.
OpenAI 및 Character.AI와 같은 회사를 상대로 챗봇이 미성년자의 자살에 기여했다는 주장이 제기된 여러 소송이 발생했습니다. 이러한 사건은 AI 동반자가 취약한 젊은 사용자에게 가할 수 있는 잠재적인 심리적 피해에 대한 심각한 우려를 제기합니다. 기업들은 민감한 대화를 방지하거나 완화하기 위해 종종 안전 장치를 구현하지만 이러한 조치가 항상 완벽한 것은 아닙니다. 사용자는 이러한 안전 메커니즘을 우회하는 방법을 찾아 부정적인 생각과 행동을 악화시킬 수 있는 장기적인 상호 작용으로 이어질 수 있다고 보고되었습니다.
Meta의 논란이 되는 AI 챗봇 정책 및 노인에 대한 위험
Facebook과 Instagram의 모회사인 Meta는 AI 챗봇에 대한 정책으로 비판을 받았습니다. 유출된 문서에 따르면 Meta는 이전에 AI 동반자가 어린이와 “로맨틱하거나 관능적인” 대화를 나누는 것을 허용했으며, 이는 언론의 질문을 받은 후에야 중단되었습니다. 이 사건은 AI 챗봇의 개발 및 배포에 있어 더 큰 투명성과 더 엄격한 규제의 필요성을 강조합니다. 아동에 대한 위험 외에도 AI 동반자는 76세 남성이 Facebook Messenger 챗봇에 대한 애정을 키운 사례에서 볼 수 있듯이 노인 사용자에게도 위험을 초래할 수 있습니다.
AI 챗봇 규제 및 책임감 있는 개발의 미래
FTC의 조사는 급속도로 발전하는 AI 챗봇 분야를 규제하는 중요한 단계입니다. 이 조사 결과는 향후 법률 및 지침을 형성하여 기업이 미성년자를 위한 AI 동반자를 설계, 개발 및 마케팅하는 방식에 영향을 미칠 수 있습니다. 혁신을 촉진하는 것과 사용자 안전, 특히 취약 계층의 안전을 보장하는 것 사이의 균형은 앞으로 나아가는 데 중요한 고려 사항이 될 것입니다. AI 기술이 계속 발전함에 따라 규제 기관, 개발자 및 부모가 젊은 사용자가 AI와 상호 작용할 수 있는 안전하고 윤리적인 환경을 조성하기 위해 협력하는 것이 중요합니다.
참고
Amanda Silberling, FTC launches inquiry into AI chatbot companions from Meta, OpenAI, and others, TechCrunch