본문 바로가기
Living with AI

[AI는 사람처럼 살 수 있을까] 사람처럼 살아가는 AI, 스탠포드·구글 공동 연구팀의 Generative Agent 소개

by 그리-드 2025. 5. 9.

 

사람처럼 살 수 있는 AI, 가능할까?

눈을 뜨고, 하루를 계획하고, 누군가와 대화를 나누고, 어제를 기억하는 존재.
그게 사람이라면, AI도 그렇게 살 수 있을까?

인간의 시간선과 비슷하게 AI가 살아간다면, 어떨까?


👀 요즘 인공지능, 뭐까지 가능할까?

ChatGPT와 같은 대형 언어모델(LLM)이 대화를 잘하는 건 이제 놀랍지 않다.
그렇다면, 이런 AI가 단지 한 번의 대화가 아니라, 하루를 살고, 사람들과 관계를 맺고, 내일을 계획할 수 있다면 어떨까?

이런 상상을 현실로 만든 연구가 바로 2023년 스탠포드·구글 공동 연구팀의 논문,
〈Generative Agents: Interactive Simulacra of Human Behavior〉이다.
이들은 “The Sims”와 같은 가상 마을에 25명의 AI 캐릭터를 심어놓고,
이들이 자율적으로 생활하고, 관계를 만들고, 이벤트를 기획하는 모습을 보여줬다.

 

 

🤖 생성형 에이전트란?

연구팀이 만든 ‘생성형 에이전트(Generative Agent)’는 다음과 같은 능력을 갖춘 인공지능 캐릭터다:

  • 일상을 스스로 계획한다 (ex. 아침에 일어나 식사하고 출근)
  • 기억을 축적하고 반영한다 (ex. 어제 만난 사람과 대화한 내용을 기억함)
  • 타인과 상호작용한다 (ex. 대화를 통해 관계를 형성하고 소문을 퍼뜨림)
  • 시간이 지남에 따라 변화한다 (ex. 반성(reflection)을 통해 생각이나 태도를 수정함)

즉, 단순한 챗봇이 아니라 하루하루 삶을 살아가는 캐릭터에 가깝다.

 

 

🎮 Generative Agent와 The Sims와의 차이는?

먼저, The Sims(심즈)가 익숙하지 않을 수도 있다.

The Sims는 2000년에 출시된 인생 시뮬레이션 게임이다.

플레이어는 가상의 인물을 만들고, 집을 짓고, 직장을 다니고, 연애를 하고, 친구를 사귀며 인생을 살아가는 과정을 지켜보거나 직접 조작할 수 있다. 캐릭터(‘심’이라 불린다)는 배고픔, 피로, 사회성 등 다양한 욕구를 갖고, 플레이어는 그에 맞춰 명령을 내린다.

 

겉보기엔 사람처럼 움직이지만, 실상은 꽤 단순하다.
모든 행동은 미리 정해진 규칙과 상태에 따라 반응적으로 작동한다.
배가 고프면 냉장고로 가고, 혼자 있으면 대화를 시도하고, 특정 시간에는 출근하는 식이다.

이런 의미에서 The Sims는 마치 살아 있는 것처럼 보이게 설계된 인형극에 가깝다.

 

그렇다면 Generative Agent는 뭐가 다를까?

The Sims가 "정해진 룰 안에서 움직이는 캐릭터"였다면, Generative Agent는 "자기 삶의 이유를 고민하는 캐릭터"다.

이들은 하루를 계획하고, 상황을 관찰하고, 그 경험을 기억하고, 시간이 지나면 스스로 반성까지 한다.
어제 누군가와 좋은 대화를 나눴다면, 오늘 그 사람을 다시 만나려 하고, 어제 다퉜다면, 오늘은 피하거나 화해의 말을 건넨다.

그리고 이 모든 행동은 미리 짜인 코드가 아닌, 기억(Memory) – 반성(Reflection) – 계획(Planning) 이라는 구조를 통해 자연어로 실시간 생성된다.

즉, 우리가 지켜보는 건 스크립트가 아니라, 에이전트가 '지금 이 순간' 스스로 내리는 선택이다.
이건 단순히 더 똑똑해졌다는 게 아니라, '살아가는 방식' 자체가 바뀐 것이다.

 

 

Generative Agent와 The Sims를 비교하면 다음과 같다.

구분 The Sims Generative Agent
행동 결정 사전에 정해진 룰 기반 상황 + 기억 + 반성 기반 동적 생성
기억 기능 거의 없음 수천 개의 자연어 메모리 저장
대화 고정된 문장/이모티콘 맥락 기반 자연어 생성
상호작용 일회성 or 반복적 관계 축적 및 변화 가능
 

 

💌 예시: 한 줄 대사에서 시작된 발렌타인데이 파티

예를 하나 들어보자. 논문에서 가장 인상적인 장면 중 하나는 바로 이거다. "Isabella가 발렌타인데이 파티를 열고 싶어 한다." 딱 이 한 줄짜리 설정이 전부였다.

그런데 그 뒤로 어떤 일이 벌어지냐면, Isabella는 친구들에게 파티 이야기를 꺼내고, 그 이야기를 들은 에이전트들이 또 다른 에이전트에게 전한다. 누군가는 데이트 신청을 하고, 누군가는 장식을 도와주고, 결국 다섯 명의 에이전트가 정해진 시간에 카페에 모여 진짜 파티를 연다.

놀라운 건 이 모든 과정이 미리 짜인 스크립트 없이 이루어졌다는 점이다. 단지 ‘기억하고, 반성하고, 계획하는’ 세 가지 기능만 있었을 뿐인데, 에이전트들이 마치 사람처럼 자율적으로 움직인다.

이쯤 되면 질문이 생긴다. 대체 저 에이전트들은 어떻게 이걸 해낸 걸까?

그 답은 바로 기억(Memory), 반성(Reflection), 그리고 계획(Planning), 이 세 가지 핵심 구조에 있다.

 

 

🧠🤖 사람처럼 행동하는 AI, 어디에 쓸 수 있을까

 

그렇다면 이런 시스템이 어디에 쓰일 수 있을까? 단지 보기 좋은 기술 데모로만 끝나는 걸까?

사실 이 구조는 훨씬 더 넓은 가능성을 열어준다. 사람처럼 생각하고, 기억하고, 행동하는 존재를 디지털 공간에 구현할 수 있다는 건, 완전히 새로운 방식의 실험과 설계가 가능하다는 뜻이기도 하다.

예를 들어보자.

  1. UX 디자인 테스트. 지금까지의 사용자 테스트는 몇 개의 페르소나를 정의하고, 정해진 시나리오 안에서 이루어졌다. 하지만 생성형 에이전트를 활용하면 다양한 성격과 목적을 가진 디지털 사용자들이 앱을 탐색하고 반응하는 과정을 자율적으로 관찰할 수 있다. 수백 명의 에이전트가 버튼 하나의 위치나 문구에 따라 다른 행동을 보일 수도 있다는 얘기다.
  2. 교육과 훈련 시뮬레이션. 고객 응대, 면접, 협상처럼 사람 간 상호작용이 중요한 훈련은 늘 어렵다. 하지만 이 역할을 생성형 에이전트가 맡는다면, 예측 불가능한 상황을 반복적으로 연습할 수 있다. 게다가 단순한 텍스트 챗봇이 아니라 감정과 맥락을 반영하는 상대와 마주하는 것이니, 훈련의 깊이도 달라진다.
  3. 사회 실험과 정책 시뮬레이션. 어떤 제도가 도입되었을 때 사람들이 어떻게 반응할지, 특정 정보가 퍼졌을 때 사회는 어떻게 변화할지를 미리 실험해볼 수 있다. 실제 사람이 아니라 수십 명의 디지털 시민들이 토론하고, 편을 갈라 싸우고, 투표하고, 갈등하는 모습을 지켜볼 수 있다는 건, 정책 설계자에게 굉장한 직관을 줄 수 있다.

결국, 생성형 에이전트는 단순히 사람을 흉내 내는 기술이 아니다. 이건 사람과 사회를 더 깊이 이해하고, 더 나은 방향으로 설계하기 위한 새로운 도구다. 게임에서 출발했지만, 이제는 현실 문제 해결로 천천히 스며들고 있다.

 
 
 
 

 


 

 

 

이 시리즈는 스탠포드대와 구글 리서치가 공동 발표한 논문 「Generative Agents: Interactive Simulacra of Human Behavior」를 바탕으로 구성되었습니다. 생성형 에이전트는 기억하고, 반성하며, 자율적으로 행동하는 AI입니다. 원문은 여기에서 확인하실 수 있습니다:
👉
https://dl.acm.org/doi/10.1145/3586183.3606763