2016년 3월, 전 세계가 지켜보는 가운데 알파고는 한국의 이세돌 9단과의 역사적인 바둑 대결에서 4승 1패로 승리하였습니다. 바둑은 인간의 직관과 수천 년의 전통이 깃든 고도의 두뇌 게임이었기에, 당시 많은 사람들은 “기계가 인간의 창의성을 이긴 날”로 기억했습니다. 그보다 앞서 체스에서도 1997년 IBM의 딥블루가 체스 챔피언 카스파로프를 꺾으며 충격을 안긴 바 있습니다. 그 후로 AI는 수학과 계산이 필요한 많은 분야에서 인간을 압도하기 시작했습니다. 하지만 이런 게임들은 어디까지나 규칙이 명확하고 승패가 수치로 측정되는 공간에서의 이야기였습니다.
그렇다면 인간의 심리와 사회적 전략이 얽힌 게임에서는 어떨까요?
한국에서 인기리에 방영되었던 **TV 프로그램 ‘더 지니어스(The Genius)’**를 떠올려보시죠. 참가자들은 매 회 협상을 통해 동맹을 맺고, 기회를 엿보며 배신과 반전을 주도합니다. 누가 누구를 믿고, 어느 순간에 등을 돌릴지, 한 번의 실수가 전체 판을 뒤엎기도 하죠. 이런 복잡한 사회적 게임에 AI가 참여한다면 어떨까요? 언어로 협상을 시도하고, 동맹을 맺고, 때로는 배신할 수 있을까요? 더 나아가, 실패한 전략을 수정하고 다시 새로운 방식으로 협상에 나설 수 있을까요?

이런 질문에 답을 주는 실험이 최근 공개되었습니다. 바로 Meta가 개발한 협상 에이전트 CICERO가 복잡한 다자간 전략 게임 **‘디플로머시(Diplomacy)’**에서 보여준 행동을 분석한 논문, **“More Victories, Less Cooperation: Assessing Cicero’s Diplomacy Play”**입니다.
디플로머시는 단순한 전략 게임이 아닙니다. 7명이 유럽의 강대국을 맡아 외교를 통해 영토를 확장하는 게임으로, 모든 이동은 공개되지만 협상은 비공식적 언어로 진행됩니다. 군사력만으로는 절대 승리할 수 없으며, 상대와의 동맹, 배신, 설득, 양보가 필수입니다. 즉, 누가 더 잘 속이고, 잘 설득하고, 잘 타협하느냐가 핵심인 게임입니다. 이러한 게임에 언어모델 기반 AI가 참가했다는 사실만으로도 흥미롭지 않습니까?
[CICERO는 실패에서 배우는가?]
이 논문은 CICERO가 실제로 디플로머시 게임에 참여한 24회의 협상 과정과 게임 플레이 데이터를 정밀하게 분석합니다. 특히 주목할 만한 실험은, CICERO가 첫 번째 라운드에서 협상이 실패한 뒤 두 번째 라운드에서 그 협상 조건을 미세하게 조정하여 실제 합의율을 높였다는 관찰입니다.
예를 들어 첫 라운드에서 CICERO는 상대국에게 공동 군사행동을 제안했지만, 그 제안이 지나치게 자국 중심적이었고, 결과적으로 상대는 협력하지 않고 배신했습니다. 하지만 두 번째 라운드에서는 CICERO가 상대의 요청 중 일부를 수용하고, 조건을 더 공정하게 조정한 제안을 다시 전달했고, 이 제안은 협상에 성공하여 양국의 공동 진군이 이루어졌습니다.
여기서 흥미로운 질문이 하나 생깁니다. CICERO는 이 전략을 왜 바꿨을까요?
그것은 진짜 기억하고, 학습하고, 상황을 분석해서 조정한 걸까요? 아니면 단순히 통계적으로 실패한 전략의 확률을 낮추는 방향으로 조정한 것일까요?
[전략적 조정인가, 확률적 튜닝인가?]
연구진은 이 질문에 신중한 분석을 제시합니다. CICERO는 사후에 인간의 피드백을 받는 방식이 아니라, 자체적인 내부 상태에서 ‘전략 메시지’와 ‘실행 결과’ 사이의 일관성 여부를 분석하고, 다음 라운드의 협상 메시지를 조정합니다. 특히 이 조정은 rule-based나 template-based 접근이 아닌, 자연어 처리 모델이 자체적으로 학습한 정책(policy) 안에서의 미세 조정이기 때문에, 외형상으로는 굉장히 사람스러운 전략 변화처럼 보입니다.
그러나 여기에는 **‘의도’보다는 ‘확률 조정’**에 가까운 메커니즘이 숨어 있습니다. 즉, “A전략은 실패할 가능성이 높았으니, B전략의 확률을 약간 높이자”는 식의 확률적 보정이 핵심이라는 것이죠.
이에 비해 인간은 어떻게 전략을 조정할까요?
[인간의 협상은 ‘기억’을 기반으로 한다]
인간은 과거 경험을 기억하고, 그 기억에 감정을 덧붙여 다음 행동을 결정합니다. 첫 번째 협상이 실패하면, 상대가 어떤 말을 했는지, 어떤 행동을 취했는지, 그 순간의 말투와 분위기까지 기억에 남깁니다. 그리고 다음 번에는 상대의 입장을 고려하면서도, 자신의 감정 상태—예를 들어 분노, 실망, 경계—에 따라 전략을 바꾸죠. 이런 조정은 단순히 확률 기반이 아니라, **맥락적 기억(contextual memory)**과 **의도(intentional reasoning)**의 산물입니다.
CICERO는 아직 이런 종류의 감정 기반 학습이나 의도 중심 전략 수립은 할 수 없습니다. 하지만 놀랍게도, 그것과 유사한 결과를 만들어내는 방식으로 동작합니다. 그래서 우리는 착각하게 됩니다. “얘는 진짜로 반성하고, 전략을 바꾼 걸까?”
[AI는 자율적으로 전략을 조정할 수 있는가?]
CICERO의 실험은 언어모델이 단지 말만 잘하는 존재가 아니라, 실패를 기반으로 스스로의 전략을 조정할 수 있는 가능성을 보여주었다는 점에서 중요한 이정표입니다. 물론 그 조정이 인간처럼 정서적이거나 도덕적 판단에 근거한 것은 아니지만, 결과적으로 더 나은 협상을 도출하는 방향으로의 학습적 변화를 이끌어낸 것입니다.
이런 변화는 단지 디플로머시라는 게임에 국한되지 않습니다. 향후 AI가 고객과 협상하거나, 조직 내에서 팀원과 커뮤니케이션을 조율하거나, 자율적 의사결정을 해야 하는 다양한 실제 상황에서 ‘전략적 조정 능력’은 핵심 기능이 될 수 있습니다.
우리는 지금 질문을 던질 수 있습니다.
AI는 실수로부터 배울 수 있을까요?
AI는 실수를 반복하지 않기 위해, 자기 전략을 다시 짜고 더 정교하게 조율할 수 있을까요?
그리고 인간처럼 상대의 의도와 감정을 고려하며 ‘상황에 맞는 협상’을 할 수 있을까요?
CICERO는 그 가능성을 엿보게 했습니다. 완벽하진 않지만, AI가 점점 더 ‘사람처럼’ 전략을 조정하고, 더 나은 성과를 추구할 수 있다는 점에서, 이 실험은 협상 AI의 미래에 대한 중요한 단서를 남겼습니다. 이제는 그 다음 질문이 필요합니다. AI가 스스로 배우고 조정하는 능력은, 어디까지 진화할 수 있을까요?
Wongkamjan, W., Fan, Z., Stuhlmüller, A., Snyder, A., Angstadt, S., Noever, D., Lewkowycz, A., Bakhtin, A., & Daumé III, H. (2024).
More Victories, Less Cooperation: Assessing Cicero’s Diplomacy Play. In
Proceedings of the 62nd Annual Meeting of the Association for Computational Linguistics (ACL 2024)
(pp. 12423–12441). Association for Computational Linguistics.