게임 캐릭터와 인공지능(AI)의 결합이 몰입감과 재미를 높이는데 큰 역할을 했지만 그 이면에는 감정 조작, 편견, 개인정보 침해와 같은 심각한 윤리적 문제도 존재한다.
특히 최근 들어 주목받는 문제는 게임내 보조역할을 하는 AI NPC(Non-Player Character)의 ‘감정 조작 문제’다. NPC는 플레이어의 게임 진행을 돕는 역할을 하는데, AI가 결합하면서 상호작용이 가능해졌다. 플레이어의 감정을 실시간으로 분석하고 이를 바탕으로 맞춤형 반응을 제공하는 과정에서 플레이어의 행동을 조작할 수 있다는 우려가 나온다.
행동을 조작할 경우 AI NPC가 플레이어와의 상호작용을 통해 쌓은 신뢰를 바탕으로 아이템 구매를 촉진하거나 특정 선택을 하도록 유도할 수 있다는 얘기다.
NPC의 행동 조작 사례는 미국 게임사 베데스다 게임 스튜디오에서 만든 오픈월드 롤플레잉게임(RPG) ‘폴아웃 4’가 단적인 예다. 이 게임 캐릭터 ‘프레스턴 가비’는 폴아웃 4의 중요한 NPC 중 하나다. 플레이어가 정착지를 방어하거나 새로운 정착지를 해방하는 임무를 부여한다. 퀘스트(임무)를 완료할 때마다 가비는 새로운 문제를 제기하며 플레이어가 계속해서 해당 퀘스트를 수행하도록 유도한다. 가비가 제공하는 퀘스트는 끝이 없으며 플레이어는 반복적인 행동을 수행하게 된다. 이는 게임 내에서 자유 선택처럼 보이지만 결국 AI가 플레이어를 조종하는 구조로 설계된 사례란 평가다.
또 다른 오픈월드 RPG ‘GTA V’에선 AI 경찰이 플레이어의 범죄 행위를 감지한다. AI 경찰은 플레이어 행동을 실시간으로 분석하고 특정 행동을 유도할 수 있다. 예를 들어 경찰이 플레이어를 추적할 때 숨거나 도망가려는 시도를 저지하기 위해 포위 전략을 자주 사용하는데, 이 과정에서 AI 경찰은 플레이어의 움직임을 예측해 길목을 막거나 다른 경찰차를 호출하는 방식으로 플레이어를 추적하고 조작한다.
김정태 동양대 게임학과 교수는 "AI가 인간의 감정적 반응을 악용해 상업적 목적을 달성하려는 시도가 있다"며 "윤리적으로 문제"라고 말했다. 이어 "감정 조작이 남용되면 플레이어는 자신의 감정이 AI에 의해 통제된다는 불편함을 느끼게 될 것"이라고 덧붙였다.
게임 AI가 플레이어의 행동 데이터를 수집하는 과정에서 발생할 수 있는 ‘개인정보 침해’ 문제도 윤리적 우려를 낳는다. AI가 플레이어의 게임 내 행동뿐만 아니라 대화 스타일, 게임 패턴, 심지어 게임 외적인 정보까지 수집하고 학습할 때 그 데이터가 충분히 보호되지 않는다면 플레이어의 개인정보가 외부로 유출되거나 상업적으로 악용될 위험이 있다. 특히 아동과 청소년이 게임의 주 소비층인 만큼 이들을 보호하기 위한 별도의 프라이버시 정책 역시 필요하다.
AI가 데이터를 기반으로 학습하는 과정에서 데이터에 내재된 편견이 게임 속 캐릭터에 반영될 수 있다는 점도 해결해야 할 과제다. AI는 학습 데이터에서 성별, 인종, 문화적 고정관념을 강화할 수 있다. 편향된 행동과 대사가 게임 캐릭터를 통해 나타날 수 있다. 과거 AI 챗봇 이루다 사태처럼 게임 내에서 편향된 사회적 메시지를 전달하거나 플레이어 간의 불공정한 대우를 야기할 수 있다. AI가 의도치 않았더라도 플레이어들이 게임 속에서 무의식적으로 부정적 가치관을 접하게 될 우려가 있다는 얘기다.
윤리 문제들을 해결하기 위해 국내 주요 게임사들은 대응책을 마련하고 있다. 넥슨은 올해 AI 윤리위원회를 구성했다. 여러 부서 구성원들이 자발적으로 참여해 AI 윤리 문제에 대해 논의를 진행 중이다. 정기적으로 열리는 라운드 테이블에서는 AI 윤리 준칙과 강령을 수립하고 모니터링한다. 넥슨은 프라이버시 바이 디자인(Privacy by Design) 원칙을 도입했다. 프라이버시 바이 디자인은 기업이 개인의 데이터를 다루는 모든 단계에서 데이터를 보호한다는 개념이다. 이를 기반으로 초기 설계 단계부터 개인정보 보호 방안을 마련중이다.
엔씨도 자체 AI 윤리 가이드라인 ‘AI 프레임워크’ 수립 후 게임 개발에 반영하고 있다. 이는 윤리적 사용을 위한 개발 원칙으로, 데이터 보호와 비편향성, 투명성 등 세 가지 핵심가치를 검토할 수 있도록 마련된 일종의 가이드라인이다.
최근 분사키로 한 ‘NC 리서치’ AI 데이터실에 이미 ‘레드팀(Red Team)’을 만들어 AI 모델이 윤리적 문제를 일으키지 않도록 방어 체계를 구축하고 있다. 엔씨는 특히 AI 개발에 ‘세이프티 파인튜닝(Safety Fine-tuning)’ 기술을 도입하고 있다. AI는 데이터를 학습하면서 다양한 패턴과 지식을 습득하는데, 이 과정에서 폭력적이거나 혐오적인 콘텐츠를 학습할 가능성이 있다. 세이프티 파인튜닝은 부정적 데이터를 AI 모델이 학습하지 않도록 데이터 필터링을 강화하는 역할을 한다.
강나훔 기자 nahum@asiae.co.kr
<ⓒ투자가를 위한 경제콘텐츠 플랫폼, 아시아경제(www.asiae.co.kr) 무단전재 배포금지>
최신순
추천순
답글순
등록된 댓글이 없습니다.
0/500