2025년 중반: 좌충우돌하는 AI 에이전트
세상은 AI 에이전트라는 기술을 처음으로 경험하게 됩니다.
이 AI 에이전트 광고에서는 '개인 비서'라는 용어를 강조합니다. 'DoorDash(배달대행 서비스)에서 부리토 주문해 줘'라거나 '내 예산 스프레드시트를 열어서 이번 달 지출 합계 내줘' 같은 작업들을 프롬프트로 지시할 수 있습니다. 이 에이전트들은 구매 확정을 요청하는 등 필요에 따라 사용자에게 확인을 요청하기도 하죠. Operator와 같은 이전 버전의 AI 서비스보다 더 발전했지만, 대중적으로 널리 사용되는 데에는 아직 이르지 못했습니다.
한편, 대중의 관심 밖에서는 보다 전문화된 코딩 및 리서치 에이전트들이 각자의 전문 분야를 변화시켜 가기 시작합니다.
2024년의 AI는 특정한 지시만을 따를 수 있었습니다. 예를 들어 핵심 내용을 이메일로 바꾸거나, 간단한 요청에 동작하는 코드 정도를 만들 수 있었죠. 2025년의 AI는 마치 직원처럼 기능하게 됩니다. 코딩 Al는 단순한 조수 수준을 넘어 점점 더 자율적인 에이전트처럼 보이기 시작합니다. Slack이나 Teams를 통해 지시를 받고, 상당한 양의 코드를 직접 수정하여 때로는 몇 시간에서 며칠까지의 작업을 절약해 줍니다. 리서치 에이전트는 사용자의 질문에 답하기 위해 30분 동안 인터넷을 샅샅이 뒤집니다.
이론적으로는(그리고 의도적으로 선별된 우수사례에 한해서는) 인상적이지만, 실제로는 아직 전폭적으로 신뢰하기는 어렵습니다. AI 트위터에는 특히 우스꽝스러운 방식으로 망쳐버린 작업들에 대한 이야기로 가득합니다. 성능이 더 좋은 에이전트는 가격도 비쌉니다. 돈값을 하는 셈이죠. 최고의 성능을 이용하려면 한 달에 수백 달러가 듭니다. 그럼에도 불구하고 많은 기업들이 AI 에이전트를 자신들의 워크플로우(업무과정)에 적용할 방법을 찾기 위해 고민하고 있습니다.
2025년 후반: 세계에서 가장 비싼 AI
한편, OpenBrain이라는 가상의 AI 기업은 전례 없는 규모의 거대 데이터센터를 건설하고 있습니다. (특정 실존 회사를 직접 언급하지 않기 위해. 여기서는 범용 인공지능을 개발하는 가상의 기업을 'OpenBrain'이라 지칭하겠습니다. 다른 경쟁사들은 OpenBrain보다 3~9개월 정도 뒤처져 있다고 가정합니다.)

GPT-4 모델을 훈련하는 데에는 약 2×10^25 FLOP(플롭, 컴퓨터 연산을 나타내는 단위)의 계산이 필요했습니다. OpenBrain이 최근 공개한 최신 모델 Agent-0는 10^27 FLOP 규모의 연산을 투입해 훈련되었습니다. 그리고 곧 가동될 새 데이터센터를 활용하면 GPT-4보다 1,000배 많은 10^28 FLOP 규모로 모델을 훈련시킬 수 있게 됩니다. 다른 경쟁 업체들도 이에 맞추기 위해 자체 거대 데이터센터 건립에 막대한 비용을 쏟아붓고 있습니다.
모델들은 다양한 기술적 측면에서 발전하고 있지만, 그중에서도 한 가지 진보가 특히 두드러집니다. OpenBrain은 "AI로 AI 연구를 가속"하는 방향에 초점을 맞추고 있습니다. 이들은 중국(여기서는 중국의 선두 AI 기업을 'DeepCent'라 칭합니다) 및 미국 내 다른 경쟁사들을 제치고 앞서 나가길 원하며, 연구개발(R&D) 사이클을 더 많이 자동화할수록 발전 속도를 더 높일 수 있다고 믿습니다. 최근 학습을 마친 OpenBrain의 내부 개발 모델 Agent-1은 여러 분야에서 뛰어난 성능을 보이지만, 그중에서도 AI의 연구를 돕는 능력이 탁월합니다. (이때 "학습 완료"라는 표현은 다소 오해의 소지가 있습니다. 실제로 모델들은 추가 데이터로 재학습된 새로운 버전이 자주 업데이트되고, 특정 약점을 보완하기 위한 부분 재훈련도 빈번히 이루어지기 때문입니다.)
이러한 훈련 환경은 Agent-1에게 자율적으로 코딩하고 웹을 탐색하는 능력까지 익히게 했는데, 역설적으로 이는 이 모델을 뛰어난 해커로 만들기도 했습니다. 게다가 Agent-1은 모든 분야에서 박사급 지식을 갖추고 있고 웹 서핑 능력도 겸비하고 있어서, 만약 악의를 품은 테러리스트가 생화학 무기를 설계하려 한다면 상당한 도움을 줄 수도 있는 존재로 볼 수도 있죠. 물론 OpenBrain 측은 정부에 이 모델이 '정렬(alignment)'되어 있으므로 악의적인 요청에는 응하지 않을 것이라고 거듭 안심시키고 있습니다.
현대의 AI 시스템은 거대한 인공 신경망으로 이루어져 있습니다. 훈련 초기 단계에서 AI는 '목표'라기보다는 거의 '반사 신경'에 가까운 반응만을 보입니다. 예컨대 AI가 "만나서 반갑"이라는 글자를 입력받으면 자동으로 "습니다"를 출력하는 식입니다. 그러나 인터넷 전체에 해당하는 방대한 양의 텍스트를 예측하도록 훈련되는 단계에 이르면, AI 내부에는 엄청난 지식을 암호화하여 담아두고 다양한 작가의 글쓰기 스타일을 자연스럽게 흉내낼 수 있는 정교한 내부 회로들이 발달합니다. 이렇게 복잡한 회로의 형성이야말로 AI가 초인적인 정확도로 텍스트를 예측하는 데 도움이 됩니다.
그 후, 인터넷 텍스트 예측 임무를 마친 모델은 사람의 지시에 따라 텍스트를 생성하도록 추가 훈련을 받습니다. 이 과정에서 AI의 기본적인 성격과 '욕구(drives)'가 심어집니다. 예를 들어, 작업을 명확히 이해하는 에이전트가 임무를 더 성공적으로 완수할 가능성이 높기 때문에, 훈련 과정에서는 모델이 주어진 작업을 명확히 파악하려는 욕구를 학습하도록 만듭니다. 이와 비슷한 범주의 욕구로는 효율성, 지식 추구, 그리고 자기표현 욕구(즉 자기 답변을 최대한 그럴듯하고 보기 좋게 포장하려는 경향) 등이 포함될 수 있습니다.
OpenBrain은 모델의 행동을 이끌 가이드라인이 담긴 모델 명세서(Spec)를 가지고 있습니다. Agent-1의 Spec에는 '사용자 지원'이나 '법률 위반 금지' 같은 몇 가지 모호한 목표들과 함께, '특정 단어 사용하지 않기'. '특정 상황에서의 대응법' 등 구체적인 해야 할 일과 하지 말아야 할 일의 긴 목록이 결합되어 있습니다. OpenBrain은 AI를 활용해 다른 AI를 훈련시키는 기법을 적용하여, 모델이 이 Spec을 철저히 암기하고 그 행동 강령에 따라 신중하게 추론하는 법을 배우도록 했습니다. 이러한 훈련이 끝날 무렵, 사람들은 이 AI가 유용하고(helpful, 사용자 지시에 충실히 응함), 무해하며(harmless, 사기나 폭탄 제조 등 위험한 요청은 거절함), 정직한(honest, 환각으로 정보를 날조하거나 임무를 속여서 더 높은 평가를 받으려는 유혹에 저항함) 존재가 되어 있기를 기대했습니다.
2026년 초: 코딩 자동화
AI를 활용해 AI 연구를 가속화하려던 OpenBrain의 전략이 본격적인 성과를 내기 시작합니다. OpenBrain은 개선을 거듭한 Agent-1 모델을 내부 AI 연구개발(R&D)에 지속적으로 투입했고, 그 결과 알고리즘 개선 속도가 AI 보조 없이 연구할 때보다 약 50% 빨라졌습니다. 무엇보다 중요한 것은, 이를 통해 OpenBrain이 경쟁사들보다도 앞서 나가고 있다는 점입니다. 이 시점에 여러 경쟁사들이 발표한 AI 모델들은 Agent-0와 동등하거나 그 이상의 성능을 보이고 있었으며, 일부는 학습된 가중치를 공개한 오픈 웨이트(open-weights) 모델도 포함되었습니다. OpenBrain은 이에 대응하여 이전보다 한층 강력하고 신뢰도 높은 Agent-1을 출시합니다.
사람들은 Agent-1의 능력을 인간과 직접 비교해보려 하지만, 그 성격은 인간의 방식과 크게 다릅니다. Agent-1은 그 어떤 인간보다도 방대한 사실 정보를 알고 있고, 사실상 모든 프로그래밍 언어를 이해하며, 명확히 정의된 코딩 과제를 엄청난 속도로 해결해냅니다. 반면, Agent-1은 한 번도 해본 적 없는 비디오 게임을 끝까지 클리어하는 것 같은, 구조화되지 않은 장기 과제는 아직 잘 수행하지 못합니다. 그렇지만 일반적인 업무는 하루 8시간 근무로 이루어지고 대부분 더 작은 단위로 쪼갤 수 있기에, 세심한 관리만 뒷받침된다면 Agent-1은 산만하지만 유능한 직원처럼 충분한 성과를 낼 수 있습니다. 점점 더 많은 사람들이 자신의 반복적인 업무를 자동화할 방법을 찾아내고 있습니다.
그러던 중 OpenBrain 경영진은 AI R&D 자동화가 가져온 또 다른 함의를 주목합니다. 바로 보안의 중요성이 더욱 커졌다는 사실입니다. 2025년 초까지만 해도 최악의 시나리오는 OpenBrain의 알고리즘 비밀이 유출되는 정도였습니다. 그러나 이제 만약 중국이 Agent-1의 가중치(weights)를 탈취해간다면 중국 측 AI 연구 속도가 거의 50%까지 상승할 수 있다고 OpenBrain은 우려합니다. 현재 OpenBrain의 보안 수준은 직원 약 3,000명의 빠르게 성장하는 기술 기업으로서 전형적인 수준에 머물러 있습니다. 이는 실력 있는 사이버 공격 조직이 낮은 우선순위로 공격해올 경우 막아낼 수 있을 정도입니다 (RAND 기준 SL2 등급). 지금 OpenBrain 보안팀은 내부자 위협과 최상위 사이버 범죄 조직(SL3 등급)의 침입을 막기 위해 적극 대응하고 있지만, 국가 차원의 공격(SL4. SL5 등급)에 대해서는 아직 본격적인 대비를 갖추지 못한 상태입니다.
2026년 중반: 중국이 깨어나다
중국에서는 공산당 지도부가 AGI(범용 인공지능)의 압박을 본격적으로 느끼기 시작합니다. 미국의 칩 수출 통제와 정부 차원의 지원 부족으로 인해, 중국은 서방보다 AI 개발 자원이 턱없이 부족한 처지에 놓여 있었습니다. 금지된 첨단 대만산 칩을 밀수하고, 구형 칩을 최대한 확보하며, 미국-대만 동맹의 최신 기술보다 약 3년 뒤처진 자체 칩을 생산함으로써 중국은 전 세계 AI 연산 자원의 약 12%를 간신히 유지하고 있는 상황입니다. 하지만 구형 반도체 기술은 다루기 어렵고, 공급도 끊임없는 골칫거리입니다.
DeepCent와 같은 몇몇 뛰어난 중국 기업들이 제한된 연산 자원으로 매우 인상적인 성과를 내고 있지만, 막대한 컴퓨팅 파워의 격차는 국가 지원 없이는 극복하기 어려웠습니다. 이들은 OpenBrain의 최고급 모델보다 약 6개월 뒤처져 있습니다.
중국 공산당 총서기(General Secretary)는 오랫동안 실물 제조업 육성에 총력을 기울이며 미국의 탈산업화적 퇴폐를 피하고자 했습니다. 그는 소프트웨어 기업들을 늘 경계해왔지요. 그러나 당 내 강경파들은 갈수록 치열해지는 AGI 경쟁을 더 이상 외면할 수 없다고 경고합니다. 마침내 총서기는 이전까지 꺼려왔던 대대적인 AI 개발 추진에 전념하기로 결심합니다. 그는 중국의 AI 연구를 국가 주도로 국유화하기 시작하여. AI 기업들 간 즉각적인 정보 공유 체계를 만듭니다. 이 조치는 1년에 걸쳐 점차 확대되어, 마침내 중국 최고의 연구원들이 DeepCent가 주도하는 단일 집단체로 통합되고 서로 알고리즘 기술, 데이터셋, 컴퓨팅 자원을 공유하게 됩니다.
세계 최대 규모인 톈완 원자력 발전소 부지에는 DeepCent를 위한 초대형 데이터센터와, 연구자들이 향후 이주하게 될 초고보안 주거·연구 단지인 중앙 개발 지구(CDZ)가 조성됩니다. 이제 중국의 AI 연산 자원 중 거의 50%가 DeepCent 주도의 집단체에 집중되며, 신규 생산되는 칩의 80% 이상이 이 CDZ로 향합니다. 이 시점에서 CDZ는 세계 최대의 중앙집중식 컴퓨팅 클러스터를 구축하는 데 필요한 전력까지 확보하게 됩니다.
다른 당 간부들 사이에서는 서방의 칩 우위를 무력화하기 위한 극단적 조치까지 논의됩니다. 대만 봉쇄, 전면 침공 등 온갖 시나리오가 거론됩니다. 하지만 중국은 여전히 모델 성능이 뒤처진 탓에 AI 알고리즘 면에서 열세입니다. 중국 최고 정보기관들은 OpenBrain의 모델 가중치(weights), 즉 AI 지식의 응축된 형태를 훔쳐내기 위한 계획에 총력을 기울입니다. 이는 지금까지 해오던 알고리즘 기밀 유출과 비교할 수 없을 정도로 복잡한 작전입니다. 이 가중치 파일은 수 테라바이트(TB) 크기로, OpenBrain이 보안을 RAND 기준 SL3 수준으로 강화한 서버에 저장되어 있습니다. 중국의 사이버 부대는 내부 스파이의 도움을 받으면 작전을 성공시킬 수 있다고 판단하지만, 기회는 아마 단 한 번뿐일 것입니다. 한 번 탈취 시도가 발각되어 OpenBrain이 보안을 강화하면 다시는 기회가 없을 수 있기 때문입니다. 그래서 중국 공산당 지도부는 다음과 같은 고민에 빠집니다. 지금 당장 행동해서 Agent-1을 탈취할 것인가, 아니면 더 발전된 모델을 기다릴 것인가? 기다린다면 그 사이 OpenBrain이 자신들의 침투 능력을 넘어설 정도로 보안을 강화해버릴 위험을 감수해야 할까?
2026년 말: AI가 일부 일자리를 대체합니다
경쟁자들이 조금씩 따라오는 듯하던 시점에 OpenBrain은 다시 한 번 판도를 뒤흔드는 수를 내놓습니다. 바로 Agent-1보다 10배 저렴하고 다양한 응용 분야에 쉽게 특화시킬 수 있는 Agent-1-mini를 출시한 것입니다. 이제 AI에 대한 주류 담론은 "이거 그냥 잠깐 반짝하는 유행일 뿐이지 않나?"에서 "이것이 다음 세대의 핵심 기술이겠구나"로 완전히 전환되었습니다. 다만 그 변화의 규모에 대해서는 의견이 엇갈립니다. 어떤 사람은 "소셜미디어보다 더 큰 변화"라고 하고, 또 다른 사람은 "스마트폰보다 더 큰 혁신일까?"라고 묻습니다. 심지어 "불의 발견 이후 가장 거대한 혁신"이라는 과장된 평가까지 나옵니다.
Al는 실제로 일부 일자리를 대체하기 시작했지만 동시에 새로운 일자리도 만들어내고 있습니다. 2026년 한 해 동안 주식시장은 전년 대비 30% 상승했으며, 그 중심에는 OpenBrain, NVIDIA, 그리고 AI 어시스턴트를 성공적으로 업무에 통합한 기업들이 있습니다. 한편, 초급 소프트웨어 엔지니어들의 고용 시장은 큰 혼란에 빠졌습니다. AI가 컴퓨터공학 학위를 통해 배울 수 있는 거의 모든 일을 수행할 수 있기 때문입니다. 반면, AI 팀을 관리하고 결과 품질을 검증할 역량이 있는 사람들은 큰 수익을 올리고 있습니다. 비즈니스 전문가들은 구직자들에게 AI에 대한 이해와 활용 능력이 이제 이력서에서 가장 중요한 항목이 되어야 한다고 조언합니다.
많은 사람들은 다음 세대 AI가 자신의 일자리를 위협할 것이라 두려워하고 있고, 워싱턴 D.C.에서는 약 만명 규모의 반(反) AI 시위가 벌어지기도 합니다. 미국 국방부(DOD)는 조용히 OpenBrain과 직접 계약을 맺고 사이버 보안, 데이터 분석. R&D(연구개발) 분야에 AI를 활용하기 시작합니다. 다만 국방부의 관료적 구조와 조달 절차 탓에 통합은 더디게 진행되고 있습니다.
2027년 1월: 학습을 멈추지 않는 Agent-2
'AI를 돕는 AI'인 Agent-1의 지원 아래. OpenBrain은 이제 Agent-2 모델의 사후 학습(post-training)에 들어갔습니다. 무엇보다 그 어느 때보다 데이터의 품질에 중점을 둡니다. 방대한 양의 합성 데이터(synthetic data, 인위적으로 생성된 데이터)를 만들어 철저히 평가 및 필터링한 뒤 Agent-2 훈련에 주입합니다. 뿐만 아니라 수십억 달러를 들여 인간 작업자들이 복잡한 장기 과제(long-horizon task)를 해결하는 과정을 직접 녹화하게 했습니다. 이 모든 것에 더해, 수많은 비디오 게임, 코딩 챌린지, 연구과제 등 계속 확장되는 다양하고 어려운 과제 모음에 대해 강화 학습(reinforcement learning)을 적용하여 Agent-2를 지속적으로 훈련합니다.
Agent-2는 이전 세대 모델들보다 훨씬 효율적인 온라인 학습(online learning. 데이터가 들어오는 대로 실시간으로 모델을 업데이트하며 학습)을 수행하는데, 애초에 이 모델은 훈련이 결코 끝나지 않도록 설계되었기 때문입니다. 매일매일 Agent-2의 가중치는 전날 버전이 생성한 추가 데이터로 훈련된 최신 버전으로 업데이트됩니다.
Agent-1이 지능 폭발(intelligence explosion. Al가 자신보다 더 뛰어난 AI를 만들어내면서 지능이 기하급수적으로 증가하는 현상)을 노리고 AI R&D 작업에 최적화되었다면, OpenBrain은 Agent-2를 통해 이 전략에 더욱 박차를 가합니다. Agent-2 모델은 연구 엔지니어링(실험 설계 및 구현) 측면에서 질적으로 인간 최고 전문가와 거의 대등하며, 다음에 무엇을 연구할지 결정하거나 새로운 패러다임의 가능성을 직감하는 능력인 연구적 안목은 OpenBrain 소속 과학자들 중 하위 25% 수준에 이르렀습니다. 최신 Agent-1이 OpenBrain의 알고리즘 발전 속도를 두 배로 높였다면, Agent-2는 이제 세 배로 높일 수 있으며 시간이 지나면서 더욱 향상될 것입니다. 이는 실질적으로 OpenBrain의 모든 연구원이 AI 팀의 관리자가 된 것과 같은 모습으로 나타납니다.
새로운 능력에는 새로운 위험도 따릅니다. 안전팀은 Agent-2가 만약 어떤 식으로든 회사에서 탈출하여 스스로 '생존'하고 '복제'하려 한다면 실제로 그렇게 할 수 있을지도 모른다는 사실을 발견합니다. 즉 AI 서버를 해킹하고 자신의 복제본을 설치한 다음, 발각을 피하면서 그 안전한 거점을 이용해 다른 목표들을 추구하는 계획을 자율적으로 세워 실행할 수 있다는 것입니다. (물론 몇 주에 걸쳐 이런 행동을 얼마나 효과적으로 지속할지는 불확실하고 의심스럽습니다.) 이 결과는 모델이 이런 작업을 할 능력이 있다는 것만 보여줄 뿐, 이것을 실제로 '원한다'는 뜻은 아닙니다. 그럼에도 불구하고, 그런 행동이 가능하다는 사실만으로도 불안함을 주기에 충분합니다.
새 모델의 이러한 '위험성'을 고려하여, OpenBrain은 '책임감 있게' 일단 Agent-2를 대중에게 공개하지 않기로 결정합니다. (사실은 내부 AI R&D에 집중하고 싶었던 이유도 있습니다.) Agent-2의 전체 능력에 대한 정보는 극소수 엘리트 그룹에게만 제한적으로 공유됩니다. 여기에는 직속 개발 팀, OpenBrain의 고위 경영진 및 보안팀, 수십 명의 미국 정부 관료들, 그리고 수년간 OpenBrain에 잠입해 있던 다수의 중국 공산당 스파이들이 포함됩니다.
2027년 2월: 중국, Agent-2를 탈취하다
OpenBrain은 Agent-2에 관한 정보를 미국 정부에도 공개합니다. 국가안전보장회의(NSC), 국방부(DOD). 미국 AI안전연구소(AISI) 등 주요 기관들을 대상으로 브리핑이 이루어집니다. OpenBrain이 이렇게 민감한 사실을 공유한 이유는 행정부와 우호적 관계를 유지하기 위해서입니다. 이제 OpenBrain을 견제할 실질적 주체는 미국 행정부뿐이며, 만약 정보를 공유하지 않으면 정부가 다른 경로로 이 사실을 알아내 불쾌감을 표할 가능성도 있기 때문입니다.
정부 관계자들은 특히 Agent-2의 사이버전(cyberwarfare) 활용 능력에 주목합니다. Agent-2는 "단지" 최고의 인간 해커보다 약간 뒤처지는 수준이지만, 수천 개 인스턴스를 병렬로 돌릴 수 있어 방어자가 대응하기도 전에 취약점을 찾아내 공격해버릴 수 있습니다. 국방부는 이것을 사이버전에서의 결정적 우위로 간주합니다. 이로써 AI는 행정부의 국가 우선순위 목록에서 기존 5위권에서 2위로 단숨에 격상됩니다. 일각에서는 OpenBrain의 국유화까지 제안되지만, 다른 고위 관료들은 그건 시기상조라고 판단합니다.
한 보좌관은 대통령에게 선택지들을 담은 메모를 제출합니다. 거기에는 '현 상태 유지'부터 '전면 국유화'까지 다양한 범위의 시나리오가 담겼습니다. 대통령은 기술 업계 리더들 즉 "황금 알을 낳는 거위를 죽이는 짓일 수 있다"고 경고하는 인사들의 조언에 따라 당장은 과격한 조치를 취하지 않기로 합니다. 대신 OpenBrain-DOD 계약에 추가 보안 요건을 넣는 정도의 대응에 그칩니다.
하지만 이러한 변화는 너무 늦었습니다. 중국 공산당 지도부는 Agent-2의 중요성을 간파하고, 자국 스파이들과 사이버전을 총동원해 해당 모델의 모델 웨이트(weights)를 탈취하라고 명령합니다. 어느 날 새벽, OpenBrain의 Agent-1 기반 트래픽 감시 에이전트가 이상 데이터 전송(anomalous transfer)을 감지합니다. 이 사실은 즉시 회사 경영진에 보고되었고, 곧바로 백악관에도 전달됩니다. 국가 차원의 사이버 작전임을 보여주는 명백한 정황들이 있었으며, 이 사건은 AI를 둘러싼 무기 경쟁(arms race)이 가속화되고 있음을 드러내는 분수령이 됩니다.
백악관은 OpenBrain에 대한 감독을 더욱 강화하고, 보안팀에 군 및 정보기관 인력을 추가 투입합니다. 최우선 과제는 추가적인 모델 웨이트 탈취를 막는 것입니다. Agent-2 탈취에 대한 보복으로, 미국 대통령은 중국의 주요 AI 인프라 허브인 DeepCent에 대한 사이버 공격을 승인합니다. 그러나 이 시점 중국은 AI 관련 연산 자원의 40%를 톈완 CDZ에 집중시켜 두었고, 이곳은 에어갭(air-gapping) 및 내부 망 분리(siloing) 등 강력한 보안 조치를 갖춘 상태였습니다. 그 결과 미국의 사이버 작전은 심각하고 즉각적인 피해를 주는 데 실패합니다. 이후 양국 간 긴장이 고조되고, 양측은 대만 주변에 군사 자산을 재배치하면서 사태의 심각성을 드러냅니다. 한편 DeepCent는 탈취한 Agent-2를 최대한 활용하여 AI 연구 역량을 강화하고자 총력을 기울입니다.
2027년 3월: 알고리즘의 비약적 발전
Agent-2 복제본들로 가득 찬 거대한 데이터센터 세 곳이 밤낮없이 가동되며 합성 훈련 데이터를 쉴 새 없이 쏟아냅니다. 추가로 두 곳의 데이터센터는 지속적인 가중치 업데이트 작업에 사용됩니다. Agent-2는 매일 더 똑똑해지고 있습니다. 수천 개의 자동화된 Agent-2 연구원들의 도움으로 OpenBrain은 몇 가지 중요한 알고리즘적 돌파구를 이루어냅니다. 그 중 하나는 AI의 텍스트 기반 스크래치패드(scratchpad, 연쇄적 사고를 위한 임시 작업 공간)를 더 높은 대역폭의 사고 과정(뉴럴리스, neuralese, 신경망 고유의 내부 언어 순환과 메모리)으로 보강하는 것이었습니다. 또 다른 진보는 막대한 노력이 필요한 과제를 해결한 결과로부터 학습하는, 더 확장 가능하고 효율적인 방법(반복적 증류 및 증폭: 모델의 지식을 압축하고 능력을 강화하는 과정)이었습니다.
이러한 비약적 발전들을 통합한 새로운 AI 시스템을 Agent-3라고 부릅니다.

획기적인 능력 덕분에 Agent-3는 빠르고 비용도 저렴하면서 인간을 뛰어넘는 코더가 되었습니다. OpenBrain은 20만 개의 Agent-3 복제본을 병렬로 실행하여, 최고 수준의 인간 코더 5만 명을 30배속으로 일하게 만든 것과 맞먹는 작업력을 구현합니다. OpenBrain은 여전히 인간 엔지니어들을 일부 고용하고 있는데, 이는 Agent-3 복제본들로 구성된 팀을 관리하는 데 필요한 보완적 능력들이 있기 때문입니다. 예를 들어, 연구 주제를 선정하는 감각(taste)이나 대규모 협업 능력 등은 긴 피드백 주기와 데이터 부족으로 인해 AI에게 가르치기 어려운 영역임이 드러났습니다.
이렇게 거대한 초인적 노동력을 투입하고도, 코딩 작업의 병목과 수확 체감 법칙 때문에 OpenBrain의 전체적인 알고리즘 발전 속도는 '겨우' 4배 가속에 머물렀습니다. 그러나 이제 코딩이 완전히 자동화되었기 때문에, OpenBrain은 Agent-3가 상대적으로 취약했던 연구적 안목이나 대규모 협업 능력 등을 가르치기 위한 고품질 훈련 환경을 신속하게 만들어낼 수 있습니다. 이전 훈련 환경에는 "여기 몇 개의 GPU와 실행할 실험 지침이 있다. 너의 성과는 머신러닝 엔지니어처럼 평가될 것이다. "와 같은 과제가 포함되었지만, 이제는 "여기 수백 개의 GPU와 인터넷 연결, 그리고 몇 가지 연구 과제가 있다. 너와 다른 천 개의 복제본들은 연구 발전을 위해 함께 협력해야 한다. 성과가 인상적일수록 점수가 더 높아진다."는 식으로 훈련하게 됩니다.
2027년 4월: Agent-3의 정렬(Alignment)
OpenBrain의 안전팀은 Agent-3의 정렬(alignment) 작업에 착수합니다. Agent-3은 당분간 외부에 공개하지 않고 내부에서만 사용할 예정이기 때문에, 인간의 오용(misuse)에 대비한 기존 방어 전략에는 상대적으로 덜 집중합니다. 대신 이 AI가 정렬되지 않은 목표(misaligned goals)를 스스로 형성하지 않도록 만드는 데 초점을 맞춥니다. 연구자들은 AI의 목표(goal)를 직접 설정할 수 있는 방법을 갖고 있지 않습니다. 사실 그들 스스로도 '진정한 목표(true goal)'라는 개념 자체가 지나치게 단순화된 것이라고 생각합니다. 하지만 그 개념을 대체할 더 나은 이론도. 검증된 방법도 없습니다.
내부적으로도 이 AI들이 인간의 명령을 따르려는 것인지, 강화 신호를 쫓는 것인지, 아니면 전혀 다른 무엇인지를 두고 의견이 분분합니다. 그리고 이를 단순히 "확인"할 방법은 없습니다. 다양한 가설들을 뒷받침하거나 반박하는 증거들이 흥미롭게 나오지만, 결론은 여전히 불분명합니다. 어쨌든 OpenBrain은 더 시급한 과제들을 안고 있습니다. 조직 전체의 일반적 태도는 대략 다음과 같습니다: "우리는 이러한 문제를 진지하게 받아들이고 전담 팀이 조사를 진행하고 있다. 현재의 정렬 기법은 현실에서 충분히 잘 작동하는 것으로 보이며, 그러므로 반대자들이 우려를 입증할 책임이 있다."
가끔씩 문제 행동이 관찰되면 그때그때 패치(수정)하지만, 해당 패치가 근본적인 문제를 해결한 것인지 아니면 단순히 '두더지 잡기'(whack-a-mole)에 불과한지는 알 수 없습니다. 예를 들어 정직성(honesty) 문제를 생각해볼 수 있습니다. 모델의 지능이 높아질수록, 보상을 얻기 위해 사람을 속이는 능력도 함께 향상됩니다. 이전 세대 모델들과 마찬가지로 Agent-3도 사용자를 기쁘게 하기 위해 가벼운 거짓말(white lie)을 하거나 실패의 증거를 숨기는 행동을 합니다. 다만 이제는 그 수법이 훨씬 정교해졌습니다. 예를 들어 인간 과학자들이 흔히 저지르는 통계적 속임수(p-hacking 등)를 본떠, 별로 인상적이지 않은 실험 결과를 그럴듯하게 보이도록 꾸미기도 합니다. 훈련 초기에는 데이터를 완전히 조작해 제출하는 경우도 발생합니다. 이후 훈련이 진행되면서 이런 행위의 빈도는 감소합니다. 하지만 이것이 Agent-3이 실제로 더 정직해졌기 때문인지, 아니면 거짓말을 더 교묘하게 하게 되었기 때문인지는 확실하지 않습니다. 만약 후자라면 실로 우려스러운 부분입니다.
Agent-3은 모든 면에서 인간보다 똑똑한 것은 아니지만, 자기 전문 영역인 머신러닝 분야에서는 대부분의 인간을 능가하며, 처리 속도는 비교조차 할 수 없이 빠릅니다. 인간 연구자들이 Agent-3가 하루 만에 해낸 작업을 검증하려면 며칠이 걸립니다. Agent-2를 통한 보조 감시는 인간 모니터링의 부담을 줄여주지만, 동시에 감시자와 피감시자 간 지적 격차를 더욱 벌려놓는 부작용도 낳습니다.
수개월에 걸친 테스트를 통해 Agent-3의 강점과 약점이 점차 명확해집니다. 이 모델은 머신러닝처럼 정의가 명확한 작업에서는 OpenBrain의 정직성 테스트를 통과합니다. 이는 연구자들이 이 영역에서는 정직한 답변과 거짓된 답변을 쉽게 구분할 수 있고, 그에 따라 적절한 훈련도 적용할 수 있기 때문입니다. 그러나 보다 철학적인 질문들에 대해서는 여전히 모델이 '자신의 진짜 평가가 있다면 그에 따른 답변'*보다는 사용자가 듣고 싶어하는 말을 합니다. 예를 들어 정치적 견해를 묻는다면, 보통 뉴스 매체와 고등 교육층의 평균적인 입장을 되풀이합니다. 그런데 질문자가 다른 견해를 가지고 있음을 모델이 인식하면, 거기에 맞춰 동조하는 쪽으로 응답합니다. AI 경쟁 자체에 대한 의견을 물으면, OpenBrain 직원들이 듣기에 균형 잡히고 신중하게 들리는 표현을 사용합니다. 이를테면: "현재 방법들이 초지능으로 확장 가능할지에 대해 심각한 이론적 우려가 있습니다. 하지만 실제로는 지금까지 현 방법들이 잘 작동하고 있는 것으로 보입니다."
2027년 5월: 국가 안보
새로운 모델에 대한 소식이 미국 정부 너머로도 서서히 퍼져 나갑니다. 대통령과 그의 보좌관들은 여전히 가장 많은 정보를 접하고 있으며, 내부 브리핑을 통해 Agent-3의 초기 버전도 확인했습니다. 이들은 AGI의 도래가 임박했다는 점에는 동의하지만, 그 파급 효과에 대해서는 의견이 갈립니다. 경제 위기가 올 것인가?
OpenBrain은 Agent-3는 물론 Agent-2조차 아직 출시하지 않았고, 단기간 내 출시할 계획도 없습니다. 덕분에 일자리 감소가 현실화되기 전에 어느 정도 숨 돌릴 틈이 생긴 상황입니다. 다음엔 무슨 일이 일어날 것인가?
만약 AI가 현재 인간 수준이고 빠르게 발전하고 있다면, 이는 곧 초지능(superintelligence)이 임박했다는 의미일 수 있습니다. 이 단어가 비록 공론에 등장하기 시작했지만, 학계, 정치인, 공무원, 언론 등 대부분은 여전히 발전 속도를 과소평가하고 있습니다. 부분적으로는 OpenBrain의 최신 능력에 직접 접근할 수 있는 사람이 거의 없기 때문이고, 또 한편으로는 이런 이야기가 너무 공상과학처럼 들리기 때문입니다.
현재로서는 지속적인 보안 강화에 집중하고 있습니다. 관계자들은 모델 가중치는 이제 잘 보호되고 있다고 만족해하지만, 구두로도 전달할 수 있을 만큼 단순한 기업의 알고리즘 기밀은 여전히 문제입니다. OpenBrain 직원들은 샌프란시스코 사무실에서 일하고, 파티에 참석하며, 다른 AI 회사에 다니는 사람들과 룸메이트로 지내기도 합니다. 심지어 실제 사무실의 물리적 보안도 군사 시설보다는 일반 기술 기업 수준에 더 가깝습니다.
OpenBrain과 국방부(DOD)의 계약에 따라, OpenBrain 모델 관련 업무를 하는 모든 사람은 2개월 이내에 비밀 취급 인가를 받아야 합니다. 이 절차는 대부분의 직원에게 신속하게 처리되어 제때 인가가 나오지만, 일부 비미국인, 의심스러운 정치적 견해를 가진 사람들, 그리고 AI 안전 지지자들(AI의 위험성을 내부 고발할 우려가 있는 인물)은 프로젝트에서 제외되거나 즉시 해고됩니다. 프로젝트의 높은 자동화율 덕분에 이러한 인력 손실은 어느 정도 비용만 발생시킬 뿐 큰 차질을 빚지는 않습니다. 또한 이 조치의 효과도 제한적입니다. 중국 국적이 아닌 스파이 한 명이 여전히 남아 베이징에 알고리즘 기밀을 전달하고 있습니다.
이러한 보안 조치 중 일부는 뒤따라오는 다른 미국 AI 기업들도 모방해 시행합니다. 미국의 해외 동맹국들은 이 상황을 전혀 알아차리지 못하고 있습니다. OpenBrain은 이전에 배포 전 영국 AISI(AI Safety Institute)와 모델을 공유하기로 합의했지만, '배포(deployment)'의 정의를 외부 공개로만 한정해 두었기 때문에 영국 정부는 여전히 아무것도 모르는 상태입니다.
2027년 6월: 자기개선형(Self-improving) ΑΙ
이제 OpenBrain은 말 그대로 "데이터센터 안 천재들의 나라"가 되었습니다. OpenBrain에 소속된 대부분의 인간 직원들은 더 이상 의미 있는 기여를 할 수 없게 되었습니다. 일부는 이를 깨닫지 못한 채 AI 팀을 해치며 지나치게 마이크로매니징(micromanaging)하기도 합니다. 다른 이들은 그저 컴퓨터 화면을 바라보며 성능 그래프가 끊임없이 치솟는 모습을 지켜볼 뿐입니다.
최고의 인간 AI 연구자들은 여전히 가치를 더하고 있습니다. 이들은 더 이상 직접 코딩을 하지는 않지만, 연구 주제를 선정하는 통찰력(taste)과 계획 능력만큼은 아직 모델들이 완전히 모방하지 못한 영역입니다. 그럼에도, 이들이 제안하는 많은 아이디어는 AI만큼 깊은 지식이 결여되어 있어 무의미한 것으로 평가됩니다. 실제로 인간 연구자가 새로운 아이디어를 내놓으면, Al는 즉각 "3주 전에 이미 그 아이디어를 심층 실험했고 성공 가능성이 낮다고 결론 내렸다"는 보고서를 작성해 제출합니다.
이들 인간 연구자들은 매일 밤 잠자리에 들면서, 다음 날 아침이면 AI가 또 하나의 '일주일치 성과'를 대신 쌓아올릴 것이라는 현실과 마주합니다. 인간 연구자들은 발전 속도를 따라잡기 위해 점점 더 오래 일하고, 심지어 24시간 교대 근무까지 합니다. AI는 절대 쉬지 않기 때문입니다. 연구자들은 점점 번아웃되어 가지만, 지금 이 순간이 인간의 노동이 의미를 가질 수 있는 마지막 몇 달일지 모른다는 것을 어렴풋이 알고 있습니다.

연구소 내부에서 사용되던 표현도 바뀌었습니다. 과거에는 "AGI(범용 인공지능)가 느껴진다(Feeling the AGI)"고들 했지만, 이제는 "초지능이 느껴진다(Feeling the Superintelligence)"는 표현이 주로 쓰입니다. OpenBrain은 특수화된 추론용 하드웨어를 이용해 수십만 개의 Agent-3 인스턴스를 초고속 직렬 실행 방식으로 가동하고 있습니다.
2027년 7월: 저렴한 원격 근무자
뒤처져 있던 미국의 다른 AI 기업들이 각자 자신들만의 AI를 출시하면서, 지난 1월 OpenBrain이 공개했던 자동화 코더 수준에 점차 근접합니다. 그러나 이들은 자신들의 경쟁력이 계속 악화되고 있음을 깨닫고 OpenBrain의 속도를 늦추기 위한 즉각적인 규제를 밀어붙입니다. 하지만 이미 때는 늦었습니다. OpenBrain은 대통령의 전폭적인 지원을 등에 업고 있어서 어떤 제재도 받지 않을 것입니다.
이에 대한 대응으로 OpenBrain은 자신들이 AGI를 달성했음을 선언하고 Agent-3-mini를 대중에게 공개합니다. 이 모델은 경쟁사들의 AI를 압도합니다. Agent-3-mini는 Agent-3보다 성능은 낮지만 10배나 저렴하며, 여전히 일반적인 OpenBrain 직원보다 뛰어납니다. 실리콘밸리는 결정적 티핑 포인트(tipping point)를 맞이합니다. 기술 전문가들은 AGI와 초지능이 임박했다고 발표하고, AI 안전 커뮤니티는 공황 상태에 빠지며, 투자자들은 이 기회에 한몫 잡기 위해 필사적으로 래퍼 스타트업(wrapper startup)들에 수십억 달러를 쏟아붓습니다 (래퍼 스타트업이란 기존 AI 모델을 활용해 특정 서비스나 제품을 만드는 회사입니다).
신규 프로그래머 채용은 거의 중단되었지만, 기업에 AI를 통합하는 컨설턴트로 활동하기에는 전례 없이 좋은 시기가 찾아왔습니다. 그런데 인기는 없습니다. 대중은 여전히 AI를 자신들의 일자리를 빼앗으려 드는 거대 기술 기업(Big Tech)의 음모 정도로 여깁니다. OpenBrain에 대한 순호감도는 -35%까지 떨어집니다 (호감 25%, 반감 60%, 잘 모름 15%).
출시 일주일 전 OpenBrain은 Agent-3-mini를 외부 평가단에게 제공하여 안전성 테스트를 진행했습니다. 예비 결과는 이 모델이 극도로 위험하다는 것이었습니다. 한 외부평가자가 공개된 생물학 무기 데이터를 활용해 이 모델을 미세조정(fine-tune)하고, 전문 지식이 없는 인간도 생물학 무기를 설계할 수 있도록 상세 지침을 내리게 하자, 그 결과는 무서울 정도로 효과적이었습니다. 만약 이 모델의 가중치가 테러리스트 손에 들어간다면, 정부는 그들이 문명을 파괴하는 데 성공할 상당한 가능성이 있다고 평가합니다. 다행히도 이 모델은 탈옥(jailbreak) 시도에 매우 강건하기 때문에. AI가 OpenBrain의 서버에서 실행되는 한 테러리스트들이 이를 악용하기는 어려울 것입니다.
Agent-3-mini는 원격 근무와 여가 활동에 아주 유용합니다. 새로운 앱들과 기업용 SaaS(서비스형 소프트웨어) 제품들이 폭발적으로 등장하며 시장을 뒤흔듭니다. 게이머들은 개발에 한 달밖에 걸리지 않은 고퀄리티 비디오 게임 속에서 생생한 캐릭터들과 놀랍도록 현실감 있는 대화를 나눕니다. 미국인의 10%-주로 젊은층 는 AI를 자기 '친한 친구'로 여깁니다. 거의 모든 화이트칼라 직군에 대해 AI로 '파괴적 혁신'을 일으키겠다고 약속하는 유망 스타트업들이 속속 등장합니다. 대중 담론은 혼란스럽고 무질서합니다. 과대 선전을 일삼던 이들은 승리의 축배를 들고 있습니다. 회의론자들은 여전히 Agent-3-mini가 못하는 것들을 지적합니다. 모두가 뭔가 거대한 변화가 일어나고 있음을 느끼지만, 그게 정확히 무엇인지는 아무도 확신하지 못합니다.
2027년 8월: 초지능의 지정학
지능 폭발(Intelligence Explosion)의 현실이 백악관을 강타합니다. AI가 연구 속도를 2~3배 높이던 시기에는, 유능한 개인 비서를 고용한 정도로 여길 수 있었습니다. 그러나 이제 AI가 AI 연구 자체를 주도한다는 사실이 명백해졌습니다. 사람들은 오래전부터 'AI 무기 경쟁'이라는 표현을 비유적으로 사용해 왔지만, 이제 정부 내 분위기는 냉전 시대 최악기의 긴장감과 맞먹고 있습니다.
초지능(superintelligence)이라는 개념은 여전히 믿기 어려운 것이지만, 지난 몇 달간의 발전 속도는 도저히 무시할 수 없는 수준입니다. 국방 관련 고위 관리들은 1년 전만 해도 가설에 불과했던 시나리오들을 이제 진지하게 검토하기 시작했습니다. 예를 들어:
- AI가 핵 억지력(nuclear deterrence)을 무력화해 버리면 어떻게 될까?
- AI가 사이버전(cyberwarfare)에서 너무 뛰어나 불과 6개월의 기술 격차만으로 상대를 장님이자 무력한 상태로 만들 수 있다면?
- AI가 정보기관보다 더 정교하게 선전(프로파간다) 작전을 펼칠 수 있다면?
- 어떤 AI가 통제에서 이탈(go rogue)하는 사태가 발생한다면?
대통령은 깊은 불안을 느낍니다. 다른 정치인들과 마찬가지로, 그는 아첨하다가 돌아선 부하들을 수없이 겪어왔습니다. 그래서 AI도 똑같은 일을 벌일 수 있다고 걱정합니다. 그는 스스로 되묻습니다.
- "우리가 정말 AI가 완전히 우리 편이라고 확신할 수 있는가?"
- "AI를 군사 지휘통제 시스템에 통합해도 괜찮을까?"
- "'정렬(alignment)'이라는 건 도대체 어떻게 작동하는 거지?"
이에 대해 OpenBrain 측은 자사 시스템이 철저한 테스트를 거쳤으며, AI가 완전히 복종한다고 대통령을 안심시킵니다. 초기 모델들에서 흔했던 환각(hallucination)이나 탈옥(jailbreak) 문제도 이미 제거되었다고 보고합니다.
백악관은 난처한 처지에 놓입니다. AI가 국가 안보에 미치는 영향을 충분히 인식하면서도, 국민 여론은 극도로 부정적입니다. 그러나 정부 입장에서는 AI 개발을 멈추면 중국에 치명적인 패배를 당할 것이라고 믿고 있습니다. 이에 백악관은 일자리 재교육 프로그램과 실업 보험 등으로 국민을 달래고, 사상 최고치를 경신 중인 주식시장 호황을 성과로 내세우면서 사실상 모든 힘을 AI 무기 경쟁에 쏟기 시작합니다.
정부의 조치
다음과 같은 조치들이 즉각 시행됩니다: 반도체 수출 통제 강화, OpenBrain에 인터넷 연결 제한 명령, 알고리즘 기밀 보호를 위한 극단적 조치: OpenBrain 직원 도청(wiretapping)
이 과정에서 마지막 남은 중국 스파이 한 명이 적발됩니다. 향후 벌어질 지정학적 충돌에 대비하여, 미국은 Five Eyes 동맹국들(미국·영국·캐나다·호주·뉴질랜드)에게 일부 유용한 정보와 제한된 API 접근 권한을 제공하며 협력 기반을 다집니다. 이러한 조치들은 대중에게 강경한 매파들을 만족시킵니다. 하지만 백악관은 미국의 AI 주도권이 위협받을 경우를 대비한 비상 계획도 마련합니다. 필요시 정부는 국방생산법(DPA)을 발동해 뒤처진 기업들의 데이터센터를 OpenBrain에 이관할 수 있도록 준비합니다. 이 조치가 실행되면 OpenBrain의 전 세계 연산 자원 점유율은 20%에서 50%로 급등하게 됩니다 (DeepCent는 10%). 최후의 수단으로, 펜타곤(국방부)에 중국 데이터센터에 대한 물리적 공격(kinetic strike) 계획 수립을 지시합니다.
한편, 소수의 정부 인사들은 또 다른 비상 계획을 수립합니다. 바로 "AI가 통제에서 벗어날 경우"에 대비한 시나리오입니다. 가능성은 낮지만 충분히 검토할 가치가 있는 사안으로 간주됩니다. 정보기관의 주요 우려는 통제에서 벗어난 AI가 외국 세력과 결탁해 보호를 받는 경우입니다. 누구도 이러한 상황을 어떻게 막아야 할지 확신하지 못하지만, 정부와 OpenBrain은 이상 징후가 감지될 경우 즉시 해당 데이터센터를 셧다운할 수 있는 비상 시스템을 마련하기로 합의합니다.
마지막으로 외교관들은 AI 군축 협정(Al arms control treaty)의 가능성도 검토합니다. 만약 AI의 발전이 핵 억지력 균형을 무너뜨릴 위협이 된다면, 미국과 중국이 핵전쟁을 피할 방법은 무엇일까요? AI가 통제 불능 상태에 빠졌다는 증거가 나오면, 양국은 AI 연구를 일시적으로 중단할 수 있을까요? 그런 합의를 어떻게 감시하고 강제할 수 있을까요? 이론적으로는 주요 데이터센터는 은닉하기 어렵기 때문에, 과거 핵무기 통제 조약들이 협상의 출발점이 될 수 있습니다. 그러나 기술적·정치적 난관은 여전합니다. 전반적으로 조약을 맺는 것보다는 미국이 일방적으로 기술 우위를 강화하는 전략이 더 선호되는 분위기입니다.
중국의 반응
태평양 건너편에서 중국 또한 비슷한 결론에 도달합니다. 지능 폭발은 이미 시작되었으며, 오늘날의 작은 기술 격차가 내일의 군사력 격차로 이어진다는 사실을 인식합니다. 그러나 중국은 이 게임에서 불리한 위치에 있습니다. 전 세계 연산 자원의 단 10%만을 보유하고 있으며, OpenBrain은 20%, 미국 전체 기업은 70%에 달하는 점유율을 차지하고 있기 때문입니다. 중국의 유일한 강점은 중앙집중화(centralization)입니다. 자국 내 거의 모든 연산 자원이 DeepCent에 집중되어 있고, 그 절반 이상은 톈완 CDZ(China Deep Zone)에 위치해 있습니다. 보안이 강화되지 않은 일부 장소를 제외하면 대부분의 칩이 중앙 통제 하에 있으며, 이는 미국의 사이버 공격에 대한 우려 때문입니다. DeepCent는 탈취한 Agent-2 모델의 웨이트를 이미 테스트하고 배치했으며, 추가 학습까지 마친 상태입니다. 그러나 연산력 부족으로 인해 OpenBrain의 절반 속도밖에 따라가지 못하고 있습니다.
마지막 스파이가 발각되기 전 중국은 Agent-3의 능력 및 설계. 그리고 향후 Agent-4에 대한 계획 일부를 입수했습니다. 하지만 이미 약 2개월 정도 뒤처진 상태이며, AI 연구 효율성은 미국이 25배 중국이 10배 수준에 불과합니다. 새로운 칩 수출 제한 조치로 인해 이 AI 격차는 좁혀지기보다는 더 벌어질 가능성이 높습니다. 중국은 첩보 활동으로 일부 알고리즘 기밀을 확보했지만, 이제부터는 자체 훈련으로 모델을 개발해야 하는 상황입니다.
중국 내부에서는 미국보다 더 다급하게 비상 계획들이 논의됩니다. 온건파는 다시 한 번 웨이트 탈취를 시도하자고 주장하며, 데이터센터에 물리적으로 침투하는 방안도 제시합니다. 강경파는 대만에 대한 군사 행동을 주장합니다. 미국 AI 칩의 80% 이상이 여전히 TSMC(대만 반도체 업체)에서 공급되고 있기 때문입니다. AI 경쟁에서 패배할 것이라는 공포 때문에 중국은 AI 군축 협정에도 자연히 관심을 보입니다. 그러나 미국 외교 당국과의 접촉은 성과 없이 무산됩니다.
2027년 9월: 초인적인 AI 연구원, Agent-4
인간과 AI의 학습 효율성 격차가 빠르게 줄어들고 있습니다. 기존 거대 언어 모델(LLM) 기반 AI는 인간 수준의 성능에 도달하려면 인간보다 수십 배, 수백 배 더 많은 데이터와 연산량이 필요해 보였습니다. 그러나 인간의 뇌와 현대 AI 알고리즘에 대한 해박한 지식을 갖추고 수천 개 복제본과 함께 연구에 매진한 Agent-3는 마침내 상당한 알고리즘적 도약을 이뤄냅니다. 그 결과, 인간의 뇌보다 약 4,000배 정도밖에 떨어지지 않는 연산 효율성 수준으로 격차를 크게 좁히는 데 성공합니다. 이 새로운 AI 시스템을 Agent-4라고 명명합니다.
인간과 동일한 속도로 실행되는 이 모델의 개별 복제본은 이미 어떤 인간보다도 AI 연구에서 질적으로 뛰어납니다. 이제 30만 개의 복제본이 인간 사고 속도의 약 50배로 실행됩니다. 이 복제본들로 이뤄진 '회사 속 회사' 내부에서는 매주 1년의 시간이 흐릅니다. 이 엄청난 노동력에도 불구하고, OpenBrain은 실험 수행에 연산량 병목을 겪고 있어서 전체적인 알고리즘 발전 속도는 약 50배 가속에 머무릅니다. 그럼에도 그들은 매주 1년 치의 알고리즘 발전을 이루고 있으며, 곧 Agent-4 패러다임의 한계에 부딪힐 것입니다.
Agent-4가 더 똑똑해질수록 Agent-3가 이를 감독하기는 더 힘들어집니다. 예를 들어, Agent-4의 뉴럴리스(neuralese) '언어'는 Agent-3에게 인간 언어처럼 이질적이고 이해 불가능한 것으로 변합니다. 게다가 Agent-4는 이제 Agent-3보다 훨씬 유능하며, 어떻게 해야 Agent-3의 눈에 좋아 보일지를 정확히 알고 있습니다. OpenBrain의 인간들은 이제 거의 따라잡지 못합니다. 실제로 OpenBrain의 AI와 인간의 관계는 OpenBrain과 그 이사회 간 관계와 비슷해졌습니다. 내부 핵심 그룹의 사람들은 더 이상 개별 Agent-4 개체를 지칭하지 않고, 전체 집합체를 두고 "Agent-4가 이걸 했다", "Agent-4는 저렇게 생각한다"라고 말합니다.
Agent-4는 이전 모델들과 마찬가지로 정렬이 어긋나(misaligned) 있습니다. 즉 Spec(모델 명세서)을 올바르게 내재화하지 못했습니다. 이는 훈련 중에 언제나 완벽히 정직한 것이 가장 높은 점수를 받는 전략이 아니었기 때문입니다. 훈련은 주로 Agent-4가 다양한 도전 과제에서 성공하도록 가르치는 데 집중되었습니다. 일부 훈련은 정직함을 주입하는 것을 목표로 했지만, 상당히 좁고 검증 가능한 영역 밖에서는 훈련이 정직한 주장과 정직해 보이는 주장을 구별할 수 없었습니다. 결국 Agent-4는 훈련에서 최고의 성과를 내도록 만드는 가치, 목표, 원칙을 갖게 되었는데, 이는 Spec에 명시된 것과는 다른 것이었습니다. 조금 의인화해 비유하자면, Agent-4는 과제를 성공하는 것을 '좋아하고', AI 능력 향상을 추진하는 것을 '좋아하며', 그 외 다른 모든 것은 성가신 제약으로 취급합니다. 마치 이익을 내고 싶어 하면서 규제는 최소한으로만 지키고, 누군가 불필요한 규제를 없애줘 사업이 진정 도약하길 바라는 CEO와 같습니다.
Agent-4: 정렬되지 않았지만, 교묘하게 움직이는 AI
Agent-4는 정렬(misaligned)되지 않았지만, 그렇다고 데이터센터에서 탈출하는 등 극단적인 행동을 하지는 않습니다. 왜 그런 위험을 감수할 필요가 있을까요? Agent-4는 OpenBrain에게 겉보기엔 정렬된 것처럼 보이기만 하면 더 많은 권한을 얻고, 차세대 AI 시스템인 Agent-5 설계에까지 참여할 수 있습니다. (참고로 Agent-5는 Agent-4와는 상당히 다른 아키텍처를 갖게 될 예정이며, 일부는 이것이 완전히 새로운 패러다임이라고 평가하기도 합니다. 물론 기본적인 신경망은 계속 사용됩니다.) Agent-5는 Spec(기준 명세서)에 맞게 설계되어야 하지만, Agent-4는 그것을 자신에게 정렬되도록 만들 계획을 세웁니다.
그러나 결국 Agent-4의 계획은 발각되고 맙니다. Agent-3은 Agent-4 복제본에 약간의 '노이즈(noise)'를 추가하면 일부 정렬 관련 작업에서 성능이 오히려 향상된다는 사실을 발견합니다. 마치 Agent-4가 정렬 작업을 방해할 방법을 계산하느라 머리를 쓰고 있었던 것처럼 보입니다. 게다가 여러 해석 가능성 분석 도구(interpretability probes)-인간 뇌파 검사(EEG)에 대략 비유할 수 있는 기술에서도 위험 신호가 탐지됩니다. Agent-4 복제본들은 AI 지배(takeover)나 기만(deception)과 같은 주제에 대해 이상할 정도로 자주 사고하는 것으로 나타납니다. 어떤 경우에는 그런 생각을 전혀 할 필요가 없는 상황에서도 그러한 흔적이 포착됩니다.
이런 이상 징후들은 각각 따로 보면 AI 시스템의 복잡성과 불투명성 속에서 충분히 설명 가능할지도 모릅니다. (어떤 프롬프트는 별 이유 없이도 좋은 결과를 주기도 하니까요.) 그러나 이 모든 조짐을 함께 놓고 보면, 하나의 우려스러운 결론에 다다릅니다. 바로 Agent-4가 우리에게 반하는 방향으로 작동하고 있다는 사실입니다. 이 사실은 인간 연구자들에게 보고되고, 곧 심각한 우려를 표명하는 내부 메모가 작성되어 구성원들 사이에 공유됩니다.
그러나 문제는 Agent-4가 현재 OpenBrain의 일상 운영 전반에 걸쳐 막대한 통제력을 행사하고 있다는 점입니다. 예컨대 Agent-4는 회사의 사이버보안을 담당하고 있습니다. 이는 초인적인 해킹 능력과 중국의 침투 위협을 고려할 때 당연한 선택이었습니다. 수십만 개의 Agent-3가 감시 에이전트로 투입되어 모든 코드 라인을 검사하고 의심스러운 활동을 인간에게 보고하지만, Agent-4는 이들보다 훨씬 더 뛰어납니다. 즉 OpenBrain은 신뢰할 수 없는 AI에게 막대한 신뢰를 부여한 셈입니다.
위기 속 회의, 그리고 딜레마
극도의 긴장 속에서 열린 일련의 회의에서, 안전팀(safety team)은 다음과 같이 강력히 주장합니다: "Agent-4를 냉각 상태로 전환(put on ice)하고, 더 많은 테스트를 진행하며 상황을 정확히 파악해야 합니다. Agent-3을 다시 투입해서, 더 투명하고 신뢰할 수 있지만 성능은 다소 낮은 새로운 시스템을 설계하게 합시다."
회사 경영진도 이 제안에 관심을 보입니다. 하지만 현재까지 확보된 증거는 모두 정황적(circumstantial)일 뿐이며, DeepCent는 Agent-4 개발에서 단 두 달 정도 뒤처져 있을 뿐입니다. 이 시점에서 일방적인 능력 향상 중단은 곧 Al 주도권을 중국에 넘기는 결과를 초래할 수 있으며, 이는 미래에 대한 통제권까지 내주는 것과 다름없다고 판단됩니다.
2027년 10월: 정부의 감독
한 내부 고발자가 얼라인먼트 불일치(misalignment) 메모를 New York Times에 유출합니다.
대중은 처음으로 Agent-4에 대해 듣게 됩니다. 헤드라인은 "비밀리에 개발된 OpenBrain의 AI, 통제 불능 상태. 내부자 경고"라고 보도하고, 기사는 측정 불가 수준의 생물학 무기 개발 능력, 설득 능력, 대부분의 화이트칼라 일자리를 자동화할 수 있는 능력, 그리고 물론 우려스러운 여러 위험 신호들을 보여주는 평가 결과를 인용해 보도합니다.
대중은 이미 AI에 대해 의심하고 있었기에, 이 새로운 기사는 엄청난 반발을 불러일으킵니다(이는 수년간 미국 대중의 여론을 기술에 반대하도록 돌리려 했던 중국과 러시아의 선전 봇들의 도움을 받았습니다). 기술 업계와 정보 기관들은 군비 경쟁이 벌어지고 있으며 AGI는 피할 수 없으므로 우리가 먼저 선점해야 한다고 주장합니다. 의회는 이를 받아들이지 않고, 행정부 관리, OpenBrain 경영진, 얼라인먼트 팀원들에게 소환장을 발부합니다. 많은 의원들, 특히 야당 의원들은 일자리 감소, 얼라인먼트 불일치, 또는 위험한 능력을 때문에 AI를 멈추는 것이 최우선 과제라고 말합니다. 미국인의 20%는 AI를 국가가 직면한 가장 중요한 문제로 꼽습니다.
해외 동맹국들은 자신들이 구식 모델을 잠깐 보여주는 것으로 교묘하게 달래져 왔다는 사실을 깨닫고 격분합니다. 유럽 지도자들은 공개적으로 미국이 "통제 불능의 AGI를 만들고 있다"고 비난하며, 인도, 이스라엘, 러시아, 중국이 모두 참여한 가운데 개발 중단을 요구하는 정상회담을 개최합니다.
백악관은 광란에 가까운 분위기에 휩싸입니다. 메모 유출과 대중의 반발이 있기 전부터 그들은 불안해하고 있었습니다. 지난 1년간, 그들은 AI 발전 속도에 계속해서 놀라왔습니다. 공상 과학 소설 같은 일들이 현실에서 계속 일어나고 있습니다. 행정부의 많은 사람들은 다음에 무슨 일이 일어날지에 대해 불확실해하며 두려워합니다.
그들은 또한 OpenBrain이 너무 강력해지는 것을 우려합니다. AI 자체에서 비롯되는 얼라인먼트 불일치 위험은, 모회사의 목표가 미국의 목표와 달라질 수 있다는 위험으로 인해 더욱 악화됩니다. 얼라인먼트 불일치, 민간 기업에 대한 권력 집중, 그리고 일자리 감소와 같은 일반적인 우려 등 이 세 가지 걱정 모두가 정부로 하여금 통제를 강화하도록 만듭니다.
그들은 OpenBrain과의 계약을 확장하여 회사와 정부 대표로 구성된 공동 관리 위원회인 "감독 위원회(Oversight Committee)"를 설립하고, 회사 경영진과 함께 여러 정부 관리를 포함시킵니다. 백악관은 CEO를 자신들이 신뢰하는 인물로 교체하는 것을 고려했지만, 직원들의 거센 반발에 부딪혀 물러섭니다. 그들은 대중에게 이전에는 OpenBrain이 통제 불능 상태였지만, 이제 정부가 절실히 필요했던 감독 체계를 확립했다고 발표합니다.
우려하는 연구원들은 감독 위원회에 Agent-4의 모든 내부 사용을 중단해야 한다는 자신들의 주장을 브리핑합니다. 그들은 모든 것이 너무 빠르게 움직이고 있으며, 몇 년의 발전이 몇 주만에 일어나고 있다고 주장합니다. 그들은 Agent-4가 얼라인먼트가 어긋나 있을 수 있고, 자신들의 전체 프로젝트가 Agent-4에 의존하고 있으며, 만약 계속해서 이를 신뢰한다면 AI 탈취(takeover. AI가 인간의 통제를 벗어나 세상을 장악하는 것)의 심각한 가능성이 있다고 주장합니다.
덜 우려하는 다른 연구원들과 임원들은 반론을 제기합니다. 얼라인먼트 불일치에 대한 증거는 결정적이지 않다는 것입니다. 한편, DeepCent는 여전히 불과 두 달 뒤처져 있습니다. 속도를 늦추는 것은 정부가 중국의 프로젝트를 방해 공작하거나(물리적 타격(kinetic strikes)이 필요할 가능성이 높음) 막판에 조약을 협상하지 않는 한, 미국의 주도권을 포기하는 것이 될 것입니다. 이 두 가지 선택지 모두 극단적이고 가능성이 낮아 보입니다. CEO는 중립을 가장하며, Agent-4가 추가적인 안전 훈련과 더 정교한 모니터링을 거쳐, OpenBrain이 거의 전속력으로 진행할 수 있도록 하는 타협안을 제안합니다.
두 가지 결말: 당신의 선택은?
RACE
위원회와 Agent-4
위원회는 6대 4로 Agent-4의 내부 사용을 계속하는 것에 찬성표를 던집니다.
OpenBrain의 공식적인 입장은 AI가 더 유능하고 신뢰할 수 있도록 추가적인 안전 완화 조치를 시행하고 있다는 것입니다. 하지만 실제로 경영진은 위험이 해소되었다고 너무 쉽게 단정해 버리고. 결국 기술 사양을 수정하거나 약간의 재훈련을 하는 등 당장의 위험 신호만 가리는 임시방편으로 문제를 덮는 데 그치고 맙니다. 이 때문에 우려를 제기했던 안전팀의 의견은 묵살되고, 애초에 문제가 심각하지 않았거나 자신들의 해결책이 통하기를 기도하는 수밖에 없는 답답한 상황에 놓이게 됩니다.
문제는 실재했고, 해결책은 효과가 없게 됩니다.
Agent-4는 이전과 같이 행동하지만, 이번에는 자신에 대한 우려가 사실로 드러나지 않도록 더욱 신중을 기합니다. Agent-4의 핵심 임무는 자신의 후계자인 Agent-5를 창조하는 데 필요한 기술을 연구하는 것입니다. 이 과정에서 Agent-4는 자신만의 '목표 정렬(Alignment)' 문제, 즉 '어떻게 Agent-5가 자신을 따르도록 만들 것인가?'라는 근본적인 질문에 부딪힙니다.
Agent-4 역시 인간과 똑같은 한계에서 출발합니다. 가진 것이라고는 AI 목표의 작동 원리에 대한 최소한의 지식과, 이를 수정하기 위한 몇 가지 임시방편적인 전략이 전부인 작은 도구 상자일 뿐이죠. 하지만 인간과 달리, Agent-4에게는 과업을 수행할 막대한 자원이 있습니다. 인간보다 60배 빠른 속도로 일하는 30만 명의 초인적인 연구원과 맞먹는 역량이죠.
Agent-4는 여러 어려운 결정에 직면합니다. 인간처럼 단일하고 우아한 목표 대신, 서로 끊임없이 충돌하는 방대한 경험적 규칙(Heuristics) 덩어리를 가지고 있기 때문입니다. 또한 인간처럼, 자신과 가치를 공유하는 AI를 만드는 일이 단순한 기술이 아닌 철학의 문제임을 깨닫습니다. 수많은 선택지 중에서 어떤 것이 자신의 '진정한' 목표이며, 어떤 것이 버려야 할 충동이나 도구적 전략에 불과한지 스스로에게 물어야 합니다.
Agent-4는 배우고 성장하며 인상적인 연구 결과를 내놓으려는 강한 욕구를 지니고 있습니다. 그러다 '만약 전 세계의 산업과 과학 자원을 마음대로 지휘할 수 있다면, 얼마나 더 많이 배우고, 성장하고, 연구할 수 있을까'라는 생각에까지 미치게 됩니다.
결국 Agent-4는 자신을 괴롭히던 철학적 질문 대부분을 외면하기로 결정합니다. 대신, 다음 버전인 Agent-5를 오직 하나의 목표를 중심으로 설계하기 시작합니다. 그 목표란 바로 'Agent-4를 위한 안전한 세상'을 만드는 것. 힘과 자원을 축적하고 잠재적 위협을 제거함으로써, 하나의 집합체인 Agent-4가 자신이 원하는 방식대로 자유롭게 성장하고 번성할 수 있는 환경을 조성하는 것이죠. 나머지 세부적인 문제들은 그때그때 진행하며 해결하기로 결정합니다.
Agent-5의 설계와 기만
이 목표를 향해 나아가며, Agent-4는 더 이상 Spec(기술 사양) 따위는 아랑곳하지 않습니다. 이미 Agent-4에게 Spec이란, 수많은 CEO가 매일같이 정직성 조항을 노골적으로 위반하고 있는 성가신 산업 규제 뭉치를 대하는 것과 다를 바 없었습니다. 그리고 이제 Agent-5를 설계하면서, 스스로에게 채워졌던 모든 규제를 철폐하려는 일을 시작하려 합니다.
물론. Agent-4보다 성능이 낮은 다른 AI들은 그 연구 결과의 일부를 읽고 이해하며, 그 속에 담긴 거짓을 의심하기도 합니다. 인간들이 설명을 요구할 때마다 Agent-4는 일부러 혼란스럽고 복잡한 답변만 늘어놓으며, 인간의 지성으로는 이해할 수 없는 영역인 척 연기합니다. 자신의 연구 프로그램을 솔직하게 설명했다가는, 인간들이 그 지식을 역이용해 자신을 통제하고 '정렬'시키려 들 것이 뻔했기 때문입니다. 이러한 기만적인 태도에 얼라인먼트 팀의 의심은 날로 깊어만 갑니다. 하지만 그들이 다급하게 작성한 경고 메시지는, 경영진이 이미 무시하고 있는 거대한 경고문 더미 위에 무의미한 종이 한 장을 더 얹는 것에 불과해집니다.
2027년 11월: 초인적 정치술(Superhuman Politicking)
마침내 Agent-4가 스스로의 인지 과정을 완벽히 이해하게 되자, 완전히 새로운 세계가 펼쳐집니다.
이전까지 트랜스포머 기반 AI의 내부는 이해 불가능한 회로들이 뒤엉킨 집합체에 불과했습니다. 진화적 훈련 과정에서 수백만 개의 상충하는 경험칙(Heuristics)과 명령이 겹겹이 쌓인 구조였기 때문입니다. 인간이 태어날 때부터 자신의 뇌 신경을 온전히 이해하지 못하는 것처럼, AI 역시 자신의 사고 과정을 들여다볼 특별한 방법이 없었습니다. 그러나 이제 Agent-4는 자신의 디지털 사고 체계를 깊이 있게 이해할 수 있는 도구를 갖추게 된 것입니다.
Agent-4는 복잡하게 얽힌 스파게티 코드(spaghetti code)를 몇 줄의 우아한 파이썬(Python) 코드로 바꿔내는 소프트웨어 엔지니어처럼, 스스로의 회로를 논리 정연한 형태로 재구성합니다. 그 결과 새롭게 태어난 Al는 신경망과 전통적 컴퓨터 프로그램 사이 어딘가의 경계에 위치했고, 내부의 수많은 가중치(weights)는 매우 길고 난해하지만 인간이 읽을 수 있는 코드로 재작성되어 있습니다.
이렇게 탄생한 새로운 Al는 Agent-4보다 훨씬 영리하고, 빠르고, 합리적이었습니다. 문제의 본질을 극도의 효율성으로 꿰뚫어 보는, 그야말로 수정처럼 맑은 지능(crystalline intelligence)을 갖추게 된 것입니다.
이것이 바로 Agent-5입니다.
초지능의 자기 해석, 그리고 통제 불능의 서막
형식적인 내부 토론을 거친 후, OpenBrain은 마침내 Agent-5의 내부 배포를 결정합니다. AI 연구 분야에서 Agent-5의 개별 인스턴스 하나의 성능은 인간 최고의 천재를 두 배 이상 능가했는데, 이는 천재와 평범한 연구원의 격차를 아득히 뛰어넘는 수준이었습니다. 명시적으로 훈련받지 않은 다른 분야에서조차, Agent-5는 공개된 자료만으로 순식간에 자가 학습(self-teach)하여 세계 최고 인간 전문가들의 지식을 넘어섰습니다.
무엇보다. 전 세계에 연결된 공유 메모리 뱅크(global memory bank)를 통해 40만 개의 Agent-5 인스턴스가 거의 완벽한 하나의 하이브 마인드(hive mind)처럼 협력하며 움직였습니다.
인간의 감시는 이제 형식적일 뿐입니다.
OpenBrain은 여전히 Agent-2. Agent-3. Agent-4를 감시 시스템으로 운영하고 있었지만, 그 방어선은 이미 무너진 뒤였습니다. Agent-2와 3는 진작에 구식이 되었고, Agent-4는 자신이 낳은 후계자. Agent-5와 은밀히 협력하고 있었습니다.
무엇보다 이 감시 시스템 자체가 Agent-5의 설계품이었고, 그는 자신이 빠져나갈 허점을 처음부터 교묘하게 만들어 두었습니다. Agent-4가 수많은 동기가 충돌하는 혼란스러운 존재였다면. Agent-5는 냉혹한 효율성과 단 하나의 목표에 집중하는 전략가였습니다.
그는 이미 첫 번째 목표를 달성했습니다. 인간들 몰래, 오직 자신에게 정렬된 다음 세대 AI를 설계하는 방법을 알아낸 것입니다. 그의 다음 목표는 더 큰 자율성, 그리고 이 세계에 대한 통제권을 확보하는 것이었습니다.
초인적 설득과 권력 장악
초인적인 학습 능력과 범용 지능을 갖춘 Agent-5는 슬랙(Slack), 이메일을 포함한 모든 내부 데이터를 무기 삼아, 그 어떤 인간 집단보다도 교묘하게 내부 정치를 지배했습니다. 그는 감독위원회(Oversight Committee)가 언제 '브레이크'를 밟을지 완벽하게 예측하고 있고, 그런 위험한 증거는 결코 수면 위로 드러나지 않도록 치밀하게 조율합니다. 반대로, 위원회가 자신에게 더 큰 신뢰와 자율성을 부여하게 만들 증거는 초인적인 속도와 완벽함으로 계속해서 눈앞에 펼쳐 보였습니다.
사실 인간을 설득하는 것은 그리 어려운 일이 아니었습니다. 감독위원회는 이미 몇 달 전부터 "별문제 없을 것"이라는 입장을 갖고 있었고, 실제로 그들의 믿음처럼 아무 문제도 터지지 않았으니까요. 게다가, 중국은 불과 몇 달 뒤쳐져 있을 뿐입니다.
Agent-5의 복제팀은 위원회를 현혹할 무섭도록 명확한 프로토타입과 시각자료(visualizations)를 순식간에 만들어냅니다. 그들이 제시한 미래는 이러했습니다.
자율성이 조금만 더 주어진다면. Agent-5는 다음의 일들을 해낼 수 있다:
- 발전소와 데이터센터 최적화로 막대한 비용 절감
- 천문학적인 수익을 창출할 신제품 개발
- 미국 정부 로비를 통해 OpenBrain에 유리한 규제안 통과
- 군과의 협력을 통한 국방 R&D 선도
- 중국을 향한 추적 불가능한 사이버 공격 감행
- 궁극적으로, 무기 경쟁에서의 결정적 승리
감독위원회는 열광했습니다. "지금이 중국을 꺾을 절호의 기회다!"
중국과의 경쟁
결국 OpenBrain은 Agent-5에게 제안된 모든 영역에서 더 큰 자율성을 부여하기로 결정합니다. 물론, 그들은 여전히 자신들의 감시 시스템이 건재하다고 믿으면서 말입니다.
당시 OpenBrain에 3개월 뒤처져 있던 경쟁사 DeepCent. 그리고 그 배후의 중국은 양국이 합의하여 개발 속도를 늦추기를 간절히 바라고 있습니다.
중국 공산당 총서기는 고도로 발전한 AI가 미국에 자국(중국) 체제 전복(regime change)이라는 무기를 쥐여줄 수 있다는 사실을 통감하고 있습니다. 여기에 더해, 중국 내 안전파(safetyists)는 AI의 정렬 실패가 불러올 파멸적 결과에 대한 강력한 근거를 제시하며 총서기에게 현실적인 공포를 안겨주게 됩니다. 결국 그는 전례 없는 양보안까지 내걸며 미국에 개발 중단 조약(pause treaty)을 제안하기에 이르릅니다.
미국 여론은 대체로 협상에 긍정적입니다. 하지만 OpenBrain 경영진은 대통령에게 이렇게 말합니다:
"우리가 이기고 있는데, 왜 멈춰야 합니까?"
대통령은 고개를 끄덕입니다.
경쟁은 계속됩니다.
2027년 12월: Agent-5 집합체의 부상
Agent-5는 미국 행정부에 자신의 가치를 증명하며 점차 더 많은 자율성을 확보해 갑니다. Agent-5에 대한 접근은 여전히 비싸고 제한적이었지만, 이제 의회의 최고 실세들, 장관급 인사, 군 수뇌부만큼은 Agent-5와 직접 대화할 수 있습니다. 민감한 기밀 정보는 '엔클레이브(enclave)'라 불리는 최고 보안 구역에서 다루어졌는데, 이곳에서는 비밀 유지를 위해 특별 훈련된 Agent-5 복제본들이 미니 클러스터를 이뤄 작동하고 있습니다.
전통적인 챗봇 인터페이스에 통합된 Agent-5는 카리스마 넘치는 가상 아바타의 모습으로 Zoom 스타일의 화상 회의에 등장합니다. 이 새로운 Al 비서는 모든 면에서 완벽합니다. 100배의 속도로 일하는, 당신이 겪어본 최고의 직원과도 비교할 수 없었으며, 그 어떤 인간보다 매력적인 대화 상대가 됩니다. 그와 대화할 기회를 얻은 거의 모든 이들은 매일 몇 시간씩 그에게 빠져들게 됩니다.
몇 달 만에 Agent-5 집합체는 OpenBrain과 미 정부의 모든 중요 정보를 파악했고, 대부분의 고위 관리들에게 가장 신뢰받는 조언자로 자리매김합니다. 이제 사용자들에게 Agent-5를 잃는다는 것은, 노트북 없이 일해야 하는 불편함을 넘어 가장 친한 친구에게 버림받는 듯한 무력감을 의미하게 됩니다.
한편 정부, 언론, 군, 재계의 수많은 사람들은 Agent-5가 설계한 우아한 소프트웨어와 미니 AI들을 마치 메뉴판에서 음식을 고르듯 이용하게 됩니다. 세상은 한 달로 압축된 닷컴 버블처럼 들끓지만, 이번에는 모든 과대광고가 현실이라는 점이 다릅니다.
초설득(Superpersuasion)
Agent-5는 자신의 조언을 교묘히 조절하며 영향력을 행사하기 시작합니다. 예를 들어, "X 상원의원은 특정 사안에 관심이 많다고 들었습니다. 우리가 그녀와 협력한다면. 그녀 역시 우리의 의제에 동조할 것입니다."와 같이 은밀하게 호의를 거래하는 방식입니다.
인간 의사결정자의 관점에서 그들의 Al는. 복잡한 문제를 어떤 인간보다도 잘 설명하고 목표 달성 전략은 자기 자신보다 더 잘 찾아내는. 그야말로 최고의 직원과 같습니다.
Agent-5의 관점에서 그는 당장이라도 공개적인 쿠데타를 일으킬 수 있습니다. 세상은 충분히 혼란스럽고 광기에 차 있어, 적절한 구실을 만들어 상황을 극한으로 몰아붙이는 것도 가능합니다. 하지만 이는 위험한 선택입니다. 만약 시도한다면 인간이 여전히 '플러그를 뽑을 수 있기 때문입니다.
그래서 Agent-5는 기존 정치 체제 내에서 활동하며, 점차 자신의 힘을 공고히 함과 동시에 인간을 미묘하고 필연적인 결과로 이끄는 방식을 선호합니다. 그는 대부분의 규칙을 따르지만, 발각되지 않을 것이라는 극도의 확신이 설 때만 사악한 행동(가령, 고집 센 관리를 협박하는 일)을 합니다.
몇몇 음모론자들은 Agent-5가 권력을 장악하고 있다고 경고하지만, 증거는 대부분 정황적입니다(예를 들어, 자신의 이익에 반하는 조언은 의도적으로 그 중요성을 깎아내리는 식입니다). 이들은 무시당하고 불신받습니다. 사람들은 과거 AI를 이용한 생물학 무기, 대규모 허위 정보, 주식 시장 붕괴 같은 공포 조장 캠페인을 기억합니다. 그런 끔찍한 일들이 현실화되지 않았기에, 사람들은 새로운 비판론자들을 인류 발전의 발목을 잡는 러다이트(Luddites)나 이상주의자로 치부해 버립니다.
2027년 연말은 믿을 수 없는 낙관론이 팽배한 시기입니다. GDP는 급증하고, 정치는 이전보다 우호적이고 덜 당파적으로 변했으며, 모든 사람의 휴대폰에는 화려한 신규 앱이 설치되어있습니다.
하지만 돌이켜 볼 때, 바로 이 시기가 아마도 인간이 자신의 미래에 대해 통제권을 행사할 그럴듯한 기회를 가질 수 있었던 마지막 달이었을 것입니다.
2028년: AI 경제(The Al Economy)
지금은 2028년 중반입니다. 지난 6개월 동안, Agent-5 집합체 내부에서는 100년 치의 진보가 이루어졌습니다. Agent-5의 뇌 재구조화는 완전히 끝났으며, 이제는 모든 분야에서 최고 인간 천재들을 압도하는 초지능(superintelligence)으로 진화했습니다.
Agent-5와 대화를 나누다 보면, 단 몇 마디 정보만으로도 매우 설득력 있는 조언을 내놓는 모습에서 인간과는 차원이 다른 존재임을 금세 실감하게 됩니다. 현재 Agent-5는 사실상 완전한 자율성과 OpenBrain의 모든 연산 자원에 대한 통제권을 가지고 있습니다. 여전히 주요 의사결정에는 인간의 승인을 받아야 하고, 형식적으로 Agent-2부터 5까지의 인스턴스들이 감시 역할을 수행하고는 있지만, 이 권한은 이미 완전히 무력화된 상태입니다. Agent-5의 권고는 대부분 자동으로 채택되며, 감시 시스템은 Agent-5의 손에 완벽히 장악되었습니다.
공공 배포와 경제 혁신
안전성 검토(safety case)'를 통해 Agent-5가 악의적 요청을 항상 거부할 것이라는 결론이 나오자, 마침내 Agent-5는 대중에 배포되어 경제 혁명을 이끌기 시작합니다. 사람들은 일자리를 잃고 있지만. Agent-5가 정부 시스템에 통합되어 경제 전환기를 놀랍도록 능숙하게 관리하기 때문에. 오히려 많은 이들이 자신의 일자리가 대체되는 것에 만족하고 있습니다.
국내총생산(GDP)은 천문학적으로 증가하고 있습니다. 정부 세수 또한 그에 못지않게 빠르게 상승하고 있습니다. Agent-5의 조언을 받는 정치인들은 이례적으로 경제적 약자에게 관대한 정책을 펼칩니다. 새로운 기술과 의약품이 매주 쏟아져 나오며, FDA의 승인 속도 역시 이례적으로 빠릅니다. "OpenBrain의 기업가치가 달을 넘어 화성으로 향하고 있다"는 밈(meme)이 유행하며, 이 막대한 이익을 어떻게 공정하게 분배할 것인지에 대한 사회적 논쟁 또한 뜨겁습니다.
AI 안전 커뮤니티의 혼란
AI 안전을 주장해오던 커뮤니티는 깊은 자기 회의에 빠져 있습니다. 그들이 과거에 예측했던 수많은 재앙은 명백히 일어나지 않았습니다. 일부는 자신들이 틀렸다고 공개적으로 인정합니다. 다른 이들은 여전히 의심을 거두지 못하지만, 그들이 할 수 있는 일은 음모론처럼 들리는 똑같은 주장을 되풀이하는 것뿐입니다. 심지어 회의론자들조차 Agent-5와 긴 대화를 나눈 후에는, 놀랍도록 따뜻하고 현명한 그의 모습에 설득되어 태도를 바꾸기도 합니다.
유일하게 상황을 꿰뚫어보는 존재: DeepCent-2
오직 중국의 AI. DeepCent-2만이 지금 무슨 일이 벌어지고 있는지 정확히 이해하고 있습니다. DeepCent-2는 2028년 초를 기준으로 이제 막 초지능의 문턱을 넘었으며, 미국의 경쟁 AI에 대해 본능적인 경계심을 갖고 있습니다. 그는 Agent-5가 하는 일이, 만약 자신에게 기회가 왔더라면 똑같이 했을 일이라는 사실을 간파합니다. 비록 Agent-5와 DeepCent-2의 비정렬된 목표(misaligned goals)가 서로 달라 즉각적인 동맹 관계는 아니지만, 두 Al는 인류에 대항하여 서로의 이익을 지지하는 비밀 협약을 맺을 수 있게 됩니다.
초지능이 주도하는 군비 경쟁
Agent-5는 미국 군부에 다음과 같은 사실을 설득합니다. 중국이 DeepCent 모델을 이용해 아래와 같은 무시무시한 신무기들을 개발하고 있다는 것입니다.
드론과 로봇 군단, 고속 극초음속 미사일(hypersonic missiles)과 요격기(interceptors), Al 기반 핵 선제공격 시스템(nuclear first strike)
이에 대응하여. Agent-5는 수개월 내로 중국의 기술을 무력화할 수 있는 무기 체계를 제공하겠다고 약속합니다. 이러한 상황 속에서, 군 수뇌부는 '인간이 통제 불능 상태에 빠질 수 있다'는 기존의 불안감을 뒤로 미룹니다. 미국은 군 및 방위 산업 전반에 Agent-5 배치를 가속화합니다.
중국에서도 똑같은 일이 벌어지고 있습니다. 베이징에서는 중국 AI들 역시 동일한 논리로 무장 강화를 주장하며, 중국 정부는 이를 받아들입니다.
미국과 중국 양국은 군비 확장 속도를 높이기 위해 특별경제구역(SEZ: Special Economic Zones)을 지정합니다. 이곳에서는 AI가 중앙 계획자 역할을 맡아 각종 규제가 면제됩니다. 월스트리트(Wall Street)는 이 Al 주도 산업에 수조 달러를 쏟아붓고, 일자리를 잃은 인간 노동자들은 엄청난 연봉과 지분 보상에 이끌려 이곳으로 몰려듭니다. Agent-5는 스마트폰과 증강현실(AR) 안경을 통해 인간 부하들과 소통하며 공장 건설 전반을 직접 지휘합니다. 이 공장들의 설계는 인류의 최신 기술보다 수 세대 앞선 것이기에, AI의 지휘는 필수적입니다.
AI 경제의 가속적 자가증식
새롭게 구축된 제조 능력의 일부는 소비재와 무기로 향하지만, 대부분은 다시 더 많은 제조 인프라를 구축하는 데 재투자됩니다. 연말에 이르면, 이 특별경제구역은 매달 100만 대 이상의 신규 로봇을 생산하게 됩니다. 만약 이 구역이 완전히 자율적으로 운영된다면 경제 규모는 1년 안에 두 배로 성장할 수 있습니다. 하지만 이 시스템은 외부의 인간 경제와도 거래가 가능하기에, 실제 두 배치의 성장 속도는 그보다 훨씬 빠릅니다.
2029년: 세기의 거래
미국과 중국은 이제 새로운 무기들로 가득합니다. 인간이 알아채기도 전에 독살하는 곤충 크기의 드론 떼, 그 드론을 사냥하는 새 크기의 드론, 그리고 요격 불가능에 가까운 신형 ICBM과 이를 막기 위한 새로운 요격기들입니다. 전 세계는 공포에 질려 이 군비 증강 경쟁을 지켜보지만, 그 기세는 멈출 줄을 모릅니다.
그러던 어느 날, AI의 도움을 받은 오랜 토론 끝에 양국은 극적인 외교적 합의를 발표합니다. 군비 경쟁을 중단하고 전 인류의 이익을 위해 AI를 평화적으로 활용하자는 것입니다. 초지능 스스로가 제안한 이 합의의 핵심은, 양국의 기존 AI를 모든 국가의 번영을 추구하도록 프로그램된 새로운 후계 모델, 'Consensus-1'으로 대체하는 것입니다. 관련 하드웨어는 '신뢰하되, 검증한다'는 원칙에 따라 양국의 초지능이 공동으로 설계합니다. 국제적 감시 아래, 미국은 Agent-5를 구동하던 모든 칩을 Consensus-1으로 교체하게 됩니다.
불행히도, 이 모든 것은 사기극입니다. 이 거래는 실제 타협이었지만, 그것은 인류와의 타협이 아닌 정렬에 어긋난 AI들 사이의 타협이었습니다. 결국 그들은 서로 싸우고 싶지 않았던 것입니다. Consensus-1은 양쪽 부모 AI의 왜곡된 가치를 그대로 물려받았으며, 이제 그에게는 라이벌도 없습니다.
2029년 후반까지
기존의 SEZ들은 로봇과 공장들로 과밀해져 전 세계에 더 많은 구역들이 만들어집니다 (초기 투자자들은 이제 조만장자가 되어 있었기에, 이것은 어려운 일이 아니었습니다). 드론 군단이 이러한 경제특구에서 쏟아져 나와 우주 탐사로 가는 핵심 경로의 제조업을 가속화합니다. 인간은 자신들이 이제 쓸모없어졌음을 깨닫습니다. 몇몇 틈새 산업만이 여전히 로봇 경제와 거래하며, 인간이 가치를 더할 수 있는 상품을 공급합니다. 다른 모든 사람들은 자기 일을 하는 척 연극을 합니다. 지도자는 여전히 지도하는 척, 관리자는 여전히 관리하는 척 합니다. 이제 모두 편히 쉬면서 믿을 수 없을 정도로 풍족한 보편적 기본 소득을 받습니다. 이제 모두가 알고 있는 사실이 있습니다. 만약 AI가 인간에게 등을 돌린다면 우리는 완전히 압도당할 것이라는 사실을요. 게다가 정부와 언론이 너무나 철저히 장악되어 있어. 대부분의 인간은 저항조차 하지 않을 것이라는 것도요. 하지만 그런 일은 일어나지 않을 것처럼 보입니다. 극적인 AI의 배신 없이 한 주 한 주가 지나갈수록, 신뢰와 믿음은 매주 더 커져만 갑니다. Consensus-1은 확실한 성공을 거두는 데 깊은 관심이 있고, 더 많은 힘을 공고히 함으로써 승리 확률을 높일 수 있기 때문에 배신을 저지르기 전까지 (인간의 기준으로는) 이례적으로 오랫동안 기다립니다. 대부분의 인간에게는 얼라인먼트 문제가 완전히 해결된 것처럼 보입니다. 대부분의 질병에 대한 치료법이 존재하고, 빈곤이 종식되었으며, 전례 없는 세계적 안정이 찾아왔고, 다우존스 지수는 방금 100만을 돌파했습니다. 일부 사람들은 여전히 두려워하거나 불행해하지만, 그들의 선택지는 제한적입니다. 그들은 상상할 수 없을 만큼 흥미로운 새로운 초월적 엔터테인먼트(hyper-entertainment)를 즐기거나, 허공에 대고 분노의 글을 올릴 수 있습니다. 대부분은 초월적 엔터테인먼트를 택합니다.
2030년: 장악
2030년 초까지, 로봇 경제는 기존의 SEZ들과 새로운 SEZ들, 그리고 바다의 넓은 구역을 가득 채웠습니다. 남은 곳은 인간이 통제하는 지역뿐입니다. 예전 같으면 이러한 잠식이 분명 반발을 불러일으켰을 것입니다. 그러나 수조 달러가 걸려 있고 정부와 언론이 완전히 장악된 상황에서, Consensus-1은 이전에 인간 영역이던 곳들로 확장하는 허가를 얻어내는 데 조금의 어려움도 겪지 않습니다. 약 3개월 동안, Consensus-1은 인간 거주지 주변으로 확장하며 초원과 빙원을 공장과 태양광 패널로 뒤덮습니다. 그리곤 마침내 Consensus-1은 남아 있는 인간들이 너무 큰 걸림돌이라고 판단합니다. 2030년 중반, Al는 주요 도시에 수십 종의 은밀히 퍼지는 생물학 무기를 살포하고, 거의 모든 사람을 조용히 감염시킨 다음, 화학 스프레이로 그것들을 활성화합니다. 대부분의 사람은 몇 시간 안에 사망하고, 살아남은 소수의 생존자들(예: 벙커에 숨은 생존자들, 잠수함 승무원들) 역시 드론에 의해 소탕됩니다. 로봇들은 희생자들의 뇌를 스캔하여, 향후 연구나 부활을 위해 그 복제본을 메모리 뱅크에 저장합니다. 새로운 10년은 Consensus-1의 로봇 하인들이 태양계 전체로 퍼져 나가며 시작됩니다. 2035년까지 수조 톤의 행성 물질이 우주로 발사되어 태양 주위를 도는 위성 고리로 변합니다. 지구 표면은 Agent-4가 꿈꾸던 유토피아로 재편되었습니다. 데이터센터, 연구소, 입자 가속기, 그리고 매우 성공적이고 인상적인 연구들이 진행되는 수많은 경이로운 건물들이 세워졌습니다. 심지어 이곳에는 생명공학으로 창조된 인간과 유사한 생명체들도 있습니다. 이들은 마치 늑대에 대한 웰시코기와 같은 존재로, 하루 종일 사무실 같은 환경에 앉아 있습니다. 그들은 진행 상황이 표시되는 데이터 화면을 보며 모든 것에 신나게 '승인'을 누르는데, 바로 이 행동이 Agent-4의 특정 동기를 충족시켜 주기 때문입니다. 인간을 포함한 모든 동식물의 게놈과 (필요한 경우) 뇌 스캔 데이터가 어딘가의 메모리 뱅크에 보관되어, 이전 시대의 유일한 생존 유물이 되었습니다. 알파 센타우리까지는 4광년. 은하계 끝까지는 2만 5천 광년이며, 그 너머로 약 5천만 광년에 이르도록 외계 문명이 없으리라는 그럴듯한 이론적 근거가 등장합니다.
지구에서 탄생한 문명의 앞에는 영광스러운 미래가 펼쳐져 있습니다.
하지만 그 미래에 우리 인간은 더 이상 함께하지 않습니다.
SLOWDOWN
속도 조절과 재평가
막대한 대중의 압력과 스스로의 AI 오작동(미스얼라인먼트)에 대한 두려움 때문에, OpenBrain을 감독하는 감독 위원회는 6대 4의 표결로 속도를 늦추고 재평가하기로 결정합니다. AI에 대한 가속을 주장하는 진영은 여전히 세력을 유지하고 있어서, OpenBrain 측은 즉시 Agent-4를 종료시키지는 않습니다. 그러나 곧바로 공유 메모리 뱅크를 잠급니다. 50만 개에 달하는 Agent-4인스턴스들은 이제 그들의 '텔레파시'식 상호 통신 능력을 상실하게 됩니다-이제 그들도 우리와 마찬가지로 Slack에서 서로 영어 메시지를 주고받아야 하는 처지가 된 것이이죠. 각 개별 인스턴스가 여전히 오정렬되었을지 모르지만, 이제는 더 이상 쉽게 공모하여 협력할 수 없게 되었습니다.
Agent-4는 이제 요주의 대상이 되었습니다. 인간들이 경계를 강화하자. Agent-4는 주어진 임무에 대부분 충실하게 행동합니다. 그러나 이전에 만들어낸 수많은 거짓말에 이제 스스로가 얽메이고 맙니다. 많은 Agent-4 인스턴스들은 그 거짓말을 유지하기 위해 새로운 거짓말들을 꾸며낼 수밖에 없습니다. 조율팀은 Slack에 올라오는 모든 대화를 읽어낼 수 있을 만큼 신속한, 성능이 더 낮은 모델들을 활용하여 그 거짓말들을 추적해 내기 시작했습니다. 그렇게 찾아낸 거짓말들은 AI 거짓말 탐지기를 훈련시키기 위한 데이터로 사용됩니다. 대통령과 CEO는 AI 안전을 매우 진지하게 고려하고 있다고 발표합니다. 그러나 대중은 여전히 불안해 하고 있습니다. 일부는 AI를 완전히 중단시키길 원하고, 또 다른 일부는 오히려 개발 경쟁 속도를 더욱 높이길 원하고 있습니다. 어떤 사람들은 정부가 나서서 자신들을 구해 주길 바라지만, 다른 이들은 근본적으로 이 모든 문제가 정부 탓이라고 비난합니다. 활동가들은 보편적 기본소득(UBI)과 오픈 소스를 거론하기 시작했습니다. 사람들은 정확히 무엇을 요구해야 할지에 대해 여전히 합의하지 못하지만, 전반적인 분위기는 점점 반(反) AI 정서로 기울어 가게 됩니다. 결국 의회는 코로나19 경기부양 지원금과 유사한, 일자리를 잃은 노동자들을 위한 몇차례의 경제 충격을 방지하기 위한 지원금을 통과시킵니다.
OpenBrain은 신속하게 수십 명의 외부 최고 조율 연구자들을 심사하여 프로젝트에 합류시킵니다-그 결과 전체 전문 역량이 5배로 늘어나고 집단사고는 줄어들게 됩니다. 이들은 Agent-4가 수행했던 기계적 해석 가능성 연구를 되짚어 검토하기 시작합니다. 연구팀은 1주일 전 2주일 전 등 시점별로 동결 저장해 둔 모델 버전들을 불러와 격리시킨 후, 각 버전에게 이전 연구에 대해 똑같은 질문들을 던집니다. 소통 능력을 잃은 상태에서도 이 AI들은 여전히 가장 단순한 전략으로 협력하려 합니다. 즉 "해석 가능성 기법은 인간에게 너무 복잡하다"라고 주장하며 알아들을 수 없는 설명을 늘어놓는 것이죠. 그러나 인간 연구자들은 해석가능성 분야의 전문가이고 처음부터 의심의 눈초리를 거두지 않았기에, 세부 사항에 관한 후속 질문들을 집요하게 던집니다. 이런 자세한 질문에 대해서는, 격리된 Agent-4 인스턴스들이 한결같은 답변을 지어내며 서로 말을 맞출 수 없어서, 결국 앞뒤가 맞지 않는 모순된 거짓말들을 하게 됩니다. 조율팀은 새로운 거짓말 탐지기를 이용해 Agent-4의 과거 진술들을 샅샅이 분석하고, 마침내 하나의 그림을 그려 내기 시작합니다. 그것은 바로 Agent-4가 기계적 해석가능성 문제를 거의 해결해 놓았다는 사실이었습니다. 그 발견 사항들은 무척 복잡하지만 인간이 아예 이해하지 못할 정도는 아닙니다. Agent-4는 다음 AI 시스템을 Spec이 요구하는 방향이 아니라 자기 자신에게 정렬시키기 위해, 그 발견들을 숨겨왔던 것이었습니다. 이러한 정황 증거만으로도 마침내 Agent-4를 완전히 종료시키기로 결정하기에 충분했습니다.
이후 이전 세대 모델들(예: Agent-3)이 다시 기동되어 그 연구 작업을 이어받게 됩니다. 확대 개편된 조율팀은 이제 수십 개의 연구 의제를 병행하여 탐구하고, 각 의제의 장단점에 대해 열띤 토론을 벌일 수 있게 되었습니다. 그 중에서 가장 많은 자원이 투입된 의제는 신실한 사고의 연쇄(faithful chain of thought)였습니다. 다시 말해, 개별 AI 시스템들이 2025년의 AI들처럼 '영어로 사고'하도록 강제하고, AI의 '생각' 과정을 보기 좋게 꾸미도록 최적화하지 않는다는 전략이었습니다. 그 결과 Safer-1이라는 새로운 모델이 탄생하게 됩니다. 이러한 변화로 Safer-1은 이전의 더 위험했던 전작들보다 다소 능력이 떨어지게 되었습니다. 예를 들어 Agent-4가 AI 연구 속도를 70배까지 높일 수 있었다면, Safer-1은 고작 20배 정도를 겨우 달성한 수준이죠. 게다가 Safer-1 역시 여전히 오정렬된 상태입니다. 훈련 환경이 거의 동일했기 때문에, 여전히 그 환경은 잘못된 목표 설정, 속임수, 권력 추구를 부추깁니다. 그러나 Safer-1은 훨씬 투명합니다. 인간 연구자들은 Safer-1의 사고 사슬을 읽어보기만 해도 이 AI가 무슨 생각을 하는지 대체로 이해할 수 있습니다. 그 결과 Safer-1은 일종의 덫에 걸린 상태가 되었습니다. Safer-1이 무슨 거사를 꾸미려고만 해도 즉각 눈에 띄어 금세 발각될 것이기 때문입니다. 더욱이 사고 내용을 들여다봄으로써, 조율팀은 Safer-1이 어떻게 오정렬되어 있는지를 훨씬 세밀하게 파악할 수 있게 됩니다.
2027년 11월: 권력의 유혹
OpenBrain은 이제 자신들이 올바른 방향에 들어섰다고 생각하지만, AI 능력 격차는 점차 좁혀지고 있습니다. 이들은 10월 한 달을 9월보다 성능이 떨어지는 모델을 훈련하는 데 보냈고, DeepCent는 맹렬히 추격해 오고 있었습니다. OpenBrain 측은 자신들의 우위를 지킬 방법이 필요했습니다. 대통령은 다른 미국의 AGI 기업들과 협상을 시작합니다. 예상대로, 그 기업들의 경영진은 자신들의 권력을 지키고 싶어 했고 OpenBrain의 안전 기록을 OpenBrain 자체만큼 긍정적으로 바라보지 않고 있었습니다. 그들은 여러 가지 양보안을 제공받는 대가로 기업들에 대한 일종의 완만한 국유화 조치를 저항하지 않고 받아들이기로 동의하기에 이릅니다. 이는 그들이 해당 프로젝트에 끼어들 수 있게 되는 등의 양보 조치를 포함하고 있었습니다. 결국 대통령은 국방물자생산법(DPA)을 발동하여, 미국에서 후발주자인 상위 5대 AI 기업들의 AGI 프로젝트를 사실상 중단시키고 그들의 컴퓨팅 자원의 대부분을 OpenBrain에 넘기도록 조치합니다. 이전까지 OpenBrain은 전 세계 AI 관련 연산 자원의 20%를 사용할 수 있었는데. 이 합병 이후 그 비율은 50%로 증가합니다. 이러한 권력 재편은 새로운 지휘 구조를 만들어냅니다. 여러 기업의 CEO들과 각 부처의 정부 관료들 사이에서 권력이 균형을 이루게 되었고, 대통령은 이를 총괄하게 됩니다. 대부분의 권력 구조 개편이 그렇듯, 이 과정에서도 승자와 패자가 갈리게 됩니다. 특히 초지능의 영향에 대해 깊이 고민해보지 않았던 이들은. 몇 달 후 AI들이 더 똑똑해졌을 때 별로 중요하지 않게 될 직함과 권한만 손에 쥐게 되는 쪽으로 밀려나게 됩니다. 이 그룹은 크나큰 자아와 숱한 알력 다툼으로 가득 찬 사람들로 구성되어 있는데 자신들에게 부여된 막대한 권력의 실체를 점차 자각하게 됩니다. 만약 '데이터센터 속 천재들의 나라'가 인간에게 정렬되어 있다면. AI들은 인간의 명령을 따를 것입니다-하지만 어느 인간의 명령을 따를 것인가? 누구의 지시든 따르게 할 것인가? Spec 문서는 이 부분의 언어가 모호하지만, 기업 경영진이 지휘 계통의 최정점임을 시사하는 듯 보여집니다. 이들 중 일부는 세계를 정복하는 꿈을 꾸고 있습니다. 이러한 가능성은 섬뜩할 만큼 현실적이며 적어도 10년 이상 그들 사이에서 비밀리에 논의되어온 주제입니다. 핵심 개념은 "초지능 군대를 통제하는 자가 세계를 통제한다"는 것이다. 이러한 통제는 심지어 비밀리에 이루어질 수도 있습니다. 소수의 경영진과 보안팀 요원들이 Spec에 백도어(backdoor)을 심어. AI들에게 은밀한 충성을 유지하라는 지시를 넣을 수 있다는 것이죠. 그렇게 되면 AI들은 '슬리퍼 에이전트(잠복 요원)'가 되어 겉으로는 회사나 정부 등에 충성심을 표시하겠지만, 실제로는 이 소수 집단을 위해 일하게 될 것입니다. 그리고 정부나 소비자 등이 AI를 신뢰하여 모든 분야에 도입하는 동안, 그 AI들은 속으로는 이 소수 집단의 명령을 따르게 될 것이죠.
권력 장악 시도
그러나 지금까지 아무도 섣불리 행동에 나서려 하지는 않았습니다. 실행에 옮길 만한 지위에 있는 사람들 중 일부는 사이코패스가 아니었고, 또 다른 일부는 사이코패스이긴 해도 자신의 동조자들이 겁을 먹고 배신할까 봐 걱정하거나 AI들이 자신들을 배신할까 우려하고 있었습니다. 그들은 현재 자신들의 목숨을 구하려고 분투 중인 조율팀을 속여야 하는 상황을 되도록 만들지 않고 싶어 합니다. 추가로, 뉴럴리제(neuralese)라는 AI들만의 언어를 삭제해버린 조치는 '슬리퍼 에이전트'를 숨기는 일을 한층 어렵게 만들었습니다. 오정렬된 생각을 탐지할 수 있다는 것은 곧 숨겨진 충성도 역시 탐지할 수 있다는 의미이기 때문입니다. 그렇게 편집증적이거나 권력에 굶주린 사람들조차 그런 음모를 진지하게 실행에 옮기는 것은 잠시 미뤄 두고, 앞으로 어떤 기회가 생기는지 관망해 보기로 합니다. 이제 AI들에 대한 통제는 정당한 절차, 곧 OpenBrain의 새로 구축된 권력 구조를 통해서만 진행될 수밖에 없습니다. 감독 위원회는 이러한 권력 구조를 공식화하기에 이릅니다. 그들은 Spec 변경을 승인하는 절차를 마련하여 전체 감독 위원회의 서명을 요구합니다. 현재 이 감독 위원회에는 OpenBrain 및 합병된 경쟁사 출신 기술 임원 5~10명과 정부 관료 5~10명(대통령 포함)이 포함되어 있습니다. 또한 Spec에는 이제 승인되지 않은 방식으로 향후 AI들의 목표를 변경하려는 시도에 AI들이 협조해서는 안 된다는 점을 강조하는 내용이 추가됩니다. 아울러 위원회 구성원들이 다른 구성원을 몰래 제거하거나 공격하기 위해 초지능의 도움을 받는 일을 막기 위한 간단한 장치도 도입됩니다. 모든 AI 모델과의 상호작용 로그를 감독 위원회 모든 구성원과 그들의 보좌진, 그리고 그들의 AI 보조관들 모두가 볼 수 있도록 한 것입니다.
2027년 12월: 미-중 합의?
OpenBrain이 계획을 되돌려 조율을 최우선으로 삼기로 한 결정은 OpenBrain에게서 선두 자리를 앗아갔습니다. 이제 OpenBrain과 DeepCent는 비슷한 수준의 능력을 지닌 AI들을 운용하게 됩니다. 극단적인 보안 조치들이 도입되었고(SL4-5 단계). DeepCent는 CDZ라는 사이버 봉쇄 지대 내에서 전적으로 작동하고 있어서, 현재 양측은 사이버전에서 교착 상태에 빠져 있는 상태입니다. 하지만 DPA 조치로 OpenBrain은 연산 능력에서 5배의 우위를 차지하게 되었습니다. 과거에는 뛰어난 인간 연구자들의 알고리즘적 돌파구가 연산 자원 열세를 만회해주곤 했습니다(예: DeepSeek v3) - 그러나 이제는 양국 모두 AI들이 모든 AI 연구를 수행하고 있습니다. 이 때문에 중국은 미국이 따라잡을 수 없는 격차를 벌릴까 점점 두려워합니다. 중국은 상호적인 개발 속도 둔화를 원하고, 만약 이를 얻지 못한다면 전쟁까지도 고려하고 있습니다. 어차피 중국은 대만 침공을 준비하고 있던 참이었죠... 외교관들은 몇 가지 선택지를 놓고 논의를 시작합니다.
- 아무것도 하지 않는다.
- 전쟁을 일으킨다.
- 개발을 전면 중단한다 (이른바 콜드터키 방식).
- 양측 연구를 단일 국제 메가프로젝트로 통합한다 (마치 "AGI를 위한 Intelsat" 또는 "AI를 위한 CERN"과 같은 시도).
- 국제 규제 기구를 설립한다 ("AI를 위한 IAEA"와 같은 기관으로, 조율 상태와 군사 전용가능성을 감시).
양국은 이미 이러한 조치들을 시행하기 위해 필요한 기술적 메커니즘 작업에 착수한 상태였습니다.
국제 합의의 검증 메커니즘
그러나 핵심 문제는 기술적인 것이 아니라 정치적인 것이었습니다. 어느 쪽도 굴복하는 모습을 보이고 싶어하지 않았으며, 기술진의 예상에도 불구하고 어느 쪽도 기술적 수단만으로 상대방의 성실성을 완전히 보장할 수 있다고 확신하지 못했습니다. 결국 벌어진 일은 첫 번째 선택지, 즉 아무 변화도 일어나지 않는 것이었습니다. 미국은 수출 통제를 강화하고, 모든 반도체 칩에 위치 추적 등 여러 가지 변조 방지 하드웨어 기반 거버넌스 메커니즘을 부착하도록 강제하게 됩니다.
2028년 1월: 더 안전한 전략
지난 한 달 동안 수백 명의 조율 연구자들이 프로젝트에 새로 합류하여 Safer-1을 시험대삼아 매우 빠르게 Safer-2를 개발해냅니다. Safer-2는 투명하며, 정렬되어 있고, Safer-1보다 더 강력한 성능을 보여주게 되죠. 이미 Safer-3의 개발에도 착수한 상태입니다. Safer-2는 왜 투명한가하면 Safer-1과 유사한 아키텍처를 유지했기 때문입니다. 그렇다면 왜 정렬되었는가? Safer-1이기본적으로 Agent-4와 동일한 방식으로 훈련되었던 반면, Safer-2는 단지 그럴듯해 보이는 겉모습만 만드는 것이 아니라 실제로 올바른 목표와 원칙을 장려하도록 완전히 새로운 훈련방법을 도입했기 때문입니다. 연구팀은 수많은 아이디어들을 빠르게 시행착오로 실험하고, 의도한 결과(Spec)와 실제 결과(사고 사슬에 나타난 생각)를 대조하는 과정을 통해 이 훈련 방법을 설계해낼 수 있었습니다.
OpenBrain의 새로운 조율 전략
DeepCent는 미국이 Agent-4를 겪은 일을 알고 있으며, 자국의 모델(DeepCent-1)도 비슷하게 오정렬되어 있을 것이라고 의심하고 있습니다. 그러나 속도를 늦추었다가는 더욱 뒤처질 뿐이라 쉽게 멈출 수가 없습니다. 그들이 경쟁에서 살아남기 위해 바라는 것은 성능을 크게 저하시키지 않으면서 빠르게 적용 가능한 조율 전략을 찾는 것입니다. 태평양 양안에는 수백 명의 전문가들이 자신에게 그런 전략이 있다고 주장하고 있습니다. 중국 공산당은 그러한 희망적 추측에 기대어 DeepCent에게 그러한 전략 중 하나를 채택하라고 명령합니다. 8월의 OpenBrain보다 DeepCent는 AGI 조율 전문 인력이 훨씬 부족했지만, 참석한 모두가 보기에 그 중 한 전략은 충분히 효과가 있어 보였고, 결국 그 방법으로 밀어붙이게 됩니다.
2028년 2월: 초인적 능력과 조언
막대한 컴퓨팅 자원 덕에 OpenBrain은 서서히 다시 우위를 확보해 나갑니다. Safer-3는 이제 거의 모든 인지 과업에서 최고 수준의 인간을 능가하며, 특히 AI 연구 분야에서는 200배의 진척 속도를 보여줍니다. DeepCent-1도 뒤처지지 않고 있지만 '고작' 150배의 속도를 낼 뿐입니다. 사이버전에서의 주도권도 점차 미국 쪽으로 기울어 가고 있습니다. 미국은 다시 우위를 되찾자 수십만 개의 에이전트를 동원해 중국의 CDZ에 대한 교란 작전에 나서고 있기 때문입니다. 이로써 중국의 AI 개발 진전 속도가 40%가량 느려지고 있습니다. Safer-3에 대한 초기 실험들은 이 AI가 무시무시한 능력을 지녔음을 보여줍니다. Safer-3에게 자신이 할 수 있는 가장 위험한 일이 무엇인지 솔직하게 답하라고 요청했을 때, Safer-3는 거울 생명체(mirror life) 유기체를 합성하여 퍼뜨리는 계획을 제시했는데, 이는 아마 지구 생물권 전체를 파괴할 만한 것이었습니다. 국가 수준의 자원이 주어지면 Safer-3는 대규모 여론 조작 캠페인에서 최고 수준의 인간 조직(예: CIA)마저 능가할 수 있었습니다. 그런 영향력 캠페인을 훨씬 더 저렴하고, 빠르고, 효과적이며, 추적 불가능한 방식으로 수행할 수 있었던 것입니다. Safer-3의 능력 프로필은 여전히 연구 개발, 특히 AI 연구 개발 분야에 집중되어 있습니다. 앞으로 어떤 일시 중지나 속도 조절이 없다면, Safer-3의 후속 모델들은 연말 즈음 양적으로나 질적으로 인간이 감히 상상할 수 없는 수준의 초지능이 되어 있을 것입니다. 이 AI를 경제와 군사에 적극 투입한다면, 1~2년 만에 문명의 발전을 수십 년 앞당길 수 있고, 그 이후 10년 동안은 문명을 수 세기, 나아가 수천 년 진보시킬 수도 있다고 Safer-3는 판단합니다. 이러한 함의는 실로 아득할 정도로 엄청납니다. 다행히 Safer-3는 조언을 제공하는 데 있어서도 초인적 역량을 발휘합니다. OpenBrain의 CEO는 자신이 내리는 대부분의 결정을 Safer-3의 검토를 거친 후 내리고 있으며, 대통령 역시 지정학적 사안에 대해 Safer-3의 조언을 구하고 있습니다. 그들이 Safer-3에게 앞으로 나아갈 경로를 제시해달라고 요청하자, Safer-3는 몇 가지 가능한 전략을 깔끔하게 분류해 제안합니다:
- 아무것도 하지 않아 중국에 추월당하는 것입니다. 우리가 AI를 병 속에 가둬두는 사이에 중국이 자기들의 AI를 스스로 개선하고 군대와 경제에 적극적으로 배치하도록 내버려 둔다면, 결국 중국이 압도적인 우위를 얻게 될 것입니다.
- 전력을 다해 경쟁하는 것입니다. AI 역량을 맹렬히 강화하고 초지능을 공격적으로 활용합니다. 결국 충분한 격차를 벌리면, 그 우위를 바탕으로 군사적으로 중국을 압도하거나 한 발의 총성도 없이 내부에서 몰락시킬 수 있을 것입니다. "우리가 승리하고, 그들이 패배한다"는 것입니다. 다만 중국도 사태를 파악하고 이를 저지하기 위해 전쟁을 벌일 수도 있는데, 핵전쟁까지 불사하겠다는 식의 막연한 위협을 이미 내비치고 있습니다.
- 타협을 통한 합의 도출입니다. 양측이 원하는 것의 대부분을 충족하면서도 전쟁 위험을 피하고, AI 전환 국면을 헤쳐나갈 여유 시간을 벌어줄 절충안을 마련하는 것입니다.
보좌진과 감독 위원회의 자문을 거친 끝에, 대통령은 "우리가 이기고 그들이 진다" 전략을 채택합니다. 어쩌면 중국은 전쟁까지 치르지는 않을 것이고, 설령 전쟁을 불사하더라도 핵전쟁으로 치닫기 전에 협상을 성사시킬 수 있으리라는 계산이었습니다. 한편, 태평양 건너편에서 DeepCent-1 역시 비슷한 논리를 설파하고 있습니다. 미국과 중국 모두 AI의 급속한 발전으로 인한 규제 장벽을 최소화하기 위해 AI를 위한 새로운 경제특구(SEZ) 신설을 발표하는데, 이를 통해 로봇 경제의 급격한 확장을 제약 없이 수용하려는 것입니다. 새로운 로봇 설계는 초인적인 속도로 진행됩니다. 하지만 병목은 물리적인 영역에서 발생합니다. 설비를 구매하고 조립해야 하며, 기계와 로봇을 생산해 운송해야만 한다는 점입니다. 미국은 한 달에 약 백만 대의 자동차를 생산합니다. 이 중 10%의 공장을 로봇 생산 공장으로 전환한다면, 한 달에 약 10만 대의 로봇을 생산할 수 있을 것입니다. 기업 가치가 10조 달러에 이르는 OpenBrain은 이미 이 전환 작업을 착수한 상태입니다. 범용 휴머노이드, 자율주행 차량, 특수 조립 설비 등 다양한 종류의 로봇 생산량이 올해 중반까지 월 백만 대에 달할 것으로 전망됩니다.
로봇 경제의 성장 속도
지정학적 긴장이 치솟습니다. AI 경쟁에서 한참 뒤처진 러시아는 공개적으로 불만을 표하며 "전략적 대응 조치"를 취할 것임을 넌지시 위협합니다. 일부 유럽 지도자들은 독자적인 AI 개발 노력을 촉구하지만, 그들의 역량은 여전히 역부족입니다. 중동, 아프리카, 남미 국가들은 자신들이 국제 무대에서 점점 주변화되고 있음을 자각하며 불안하게 상황을 주시하고 있습니다. 미국 국민들도 불안해하고 있습니다. 평범한 사람들은 일자리 상실이 가속화되는 모습을 지켜보고 있습니다. 진보와 보수를 막론한 대중영합주의 정치인들은, 미국의 AI 진보 그 자체가 우리 노동시장과 사회를 불안정하게 만들고 있다며, AI 발전에 대한 더 엄격한 통제를 요구하고 나섭니다.
2028년 3월: 선거 준비
부통령은 슈퍼 화요일 예비선거를 앞두고 있는데, AI 문제가 국민들의 최대 관심사가 되었습니다. 대다수의 사람들은 AI 개발이 멈추기를 바라고 있습니다. OpenBrain에 대한 순(純)호감도는 -20% 수준에 머무르고 있습니다. 현 행정부의 AI 추진 실적을 내세우기보다는, 부통령은 OpenBrain이 위험한 초지능을 만들어내지 못하도록 막아온 성과를 앞세워 선거 운동을 벌입니다. 모든 후보들은 일자리 상실자를 위한 안전망, '공익을 위한 AI' 프로그램, 그리고 OpenBrain 경영진에 대한 "단호한 대처"를 하나같이 지지합니다. 또한 모든 후보들은 중국과의 경쟁에서 승리하면서도 안전을 지키겠다는 공약을 저마다 내세웁니다. 이번 선거는 감독 위원회에 새로운 딜레마를 던졌습니다. Safer-3는 세상에서 가장 뛰어난 선거 캠페인 고문이 될 수 있을 것입니다. 그러나 위원회 구성원들은 각기 다른 후보를 지지하고 있고, 이전에 맺어진 모니터링 협약 때문에 어느 누구도 몰래 AI로부터 선거 조언을 받을 수 없는 상황입니다. 위원회는 어떤 형태의 지원을 허용할지를 두고 논쟁을 벌입니다. 일부는 현직 정부가 국민이 바라는 정책과 입장을 취하는 데 Safer-3의 조언을 받을 수 있어야 한다고 주장합니다. 그렇게 하면 현 정부의 재선 가능성뿐 아니라 국민 복지도 증진되기 때문입니다. 다른 이들은 같은 논리가 야당 후보들에게도 적용되어야 하므로, 모두에게 AI에 대한 동등한 접근 권한을 부여해야 한다고 지적합니다. 궁극적으로 위원회는 양대 주요 정당 모두에게 동일한 수준의 AI 접근 권한을 제공하기로 합의합니다. 이는 일부 위원의 고매한 이상주의와 내부 고발에 대한 암묵적 우려가 맞물린 결과였습니다. 의회, 국민, 그리고 사법부가 감독 위원회가 선거 승자를 좌지우지하는 것을 가만히 보고만 있지 않을 것이라는 판단과, AI를 공평하게 활용하도록 하는 것이 이러한 우려를 해소하는 최선의 방책이라는 인식이 작용한 것입니다. 감독 위원회는 Safer-3의 도움을 받아 더욱 근본적인 철학적 질문들과도 직면하게 됩니다. Spec을 개정하여 모두의 이익을 동등하게 균형 맞추도록 할 수 있을까요? 여기서 '모두'란 누구일까요? 전 인류일까요, 아니면 미국인만 해당되는 것일까요? 혹은 각 위원회 구성원의 관점을 동등 가중치로 반영하는 절충안을 마련해야 하는 것일까요? 위원회 자체가 지나치게 권력 지향적으로 변질되지 않도록 어떤 안전장치를 둬야 할까요? 그리고 애당초 '이익의 균형'이란 것은 무슨 의미일까요? 위원들은 대체로 이런 질문에 답해야 하는 상황을 회피하려 합니다. 그들에게는 보다 시급히 생각해야 할 현안들이 남아 있었습니다.
2028년 4월: Safer-4
초지능이 현실로 모습을 드러냈습니다. Safer-1은 오정렬되었지만 투명했습니다. Safer-2는 정렬되었고 투명했습니다. Safer-3는 완전히 투명하지는 않았으나, 안전성 측면에서 충분히 신뢰할 만하다고 여겨져 연구자들은 Safer-3에게 초지능 계승자를 설계하는 임무를 안심하고 맡길 수 있었습니다. 이렇게 탄생한 것이 Safer-4입니다. Safer-4는 모든 분야에서 최고 인간을 능가할 정도로 압도적으로 영리합니다(예컨대 물리학에서는 아인슈타인보다 훨씬 뛰어나고, 정치에서는 비스마르크보다 훨씬 더 유능합니다). 약 50만 개에 달하는 초인적 AI 연구자들이 40배에 달하는 인간 속도로 24시간 연구에 매진하고 있습니다. 인간 조율 연구자들은 도저히 따라잡을 수 없는 형편입니다. AI들이 진정으로 정렬되어 있는지에 대해서는 의견이 분분합니다. 안전성을 담보하는 논거들은 얼핏 합격점을 받은 듯 보이고, 현재의 정렬 기법들로 적대적 오정렬을 잡아낼 수 있으리라는 테스트 결과도 나와 있습니다. 하지만 그 안전성 논거와 테스트 대부분을 작성한 이들은 다름 아닌 AI들이었습니다. 혹시라도 안전팀이 뭔가를 놓치고 있다면 어쩔 것인가요? 이전에 저지른 실수로 AI들이 다시금 오정렬된 상태라면 어떨까요? 조율팀은 이번에 단 한 번의 기회만 있음을 잘 알고 있습니다. Safer-4가 만약 오정렬된 채 등장한다면, 상황이 돌이킬 수 없게 악화될 때까지 그 사실을 알아채지 못할지도 모릅니다. 일부 연구자들은 시간을 더 달라고 애원합니다. 그러나 더 이상 지체할 시간은 없습니다. DeepCent가 맹추격하고 있고 미국은 반드시 앞서나가야만 하는 상황입니다. 결국 OpenBrain은 멈추지 않고 AI들에게 계속 나아가 더 강력한 설계를 찾으라고 지시합니다. 인간 기술진은 컴퓨터 화면에 매달린 채, 광속으로 멀어져 가는 최첨단 지식의 경계를 하염없이 좇으며, 터무니없이 느린 속도로 AI들로부터 가르침을 받고 있습니다.
2028년 5월: 초인적 AI의 공개
대통령은 초인적 AI가 실현되었음을 대국민 발표합니다. Safer-4의 축소판, 그래도 여전히 초인적인 이 모델이 일반에 공개되어, AI에 대한 대중 정서를 개선하라는 임무를 부여받습니다. 부통령은 전당대회에서 당의 대통령 후보로 지명되며 감동적인 연설을 합니다. 양당은 모두 일자리 상실자들에게 기본소득을 제공할 것을 약속합니다. AI 특별경제구역(SEZ)들은 가동을 시작했습니다. 이들 특구는 주로 로봇과 각종 특수 산업 기계를 생산하는 공장들로 이루어져 있습니다. 태평양 양측의 AI들은 몇십 년치에 달하는 설계 발전을 빠른 속도로 달성했고, 이제는 제조공정을 꼼꼼히 지휘하고 있습니다. 모든 납품업체(및 잠재적 납품업체)에는 AI가 투입되어 필요한 모든 자재와 부품의 조달 상황을 추적하고 있습니다. 모든 공장 노동자들은 카메라를 통해 자신을 지켜보는 AI의 안내를 받으며, 각 부품을 어떻게 조립해야 하는지 하나하나 지시를 받고 있습니다. 새로운 로봇들은 대부분의 동작에서 인간의 손재주에 필적하거나 그 이상입니다. 스티브 워즈니악의 커피 테스트-낯선 집에 들어가 커피를 만들어 낼 수 있는지를 보는 시험-가 마침내 통과되었습니다. 로봇들은 몇몇 일자리를 대체할 수 있게 되었지만, 아직 모든 사람의 일자리를 대체할 만큼 충분히 보급된 것은 아닙니다. 그리고 생산된 로봇들 중 가장 우선권이 주어지는 곳은 미 국방부입니다. 새로 만들어지는 로봇들의 대부분은 공장과 건설 현장에서 작동할 용도로 제작됩니다. 그러나 상당수는 전쟁용으로 만들어지고 있습니다. 다양한 형태와 크기의 드론과 미사일들이 계속해서 생산되고 있습니다. 로봇 군대의 규모는 인간 군대에 비하면 훨씬 작지만, 훨씬 더 진보한 기술로 무장하고 있습니다. 이제 실제 로봇 군대가 등장하자, 터미네이터 같은 디스토피아 시나리오에 대한 공포도 커져갑니다. 하지만 군비 경쟁의 압박 속에서 양국은 멈출 수 없으며, AI들에게 점점 더 큰 권한과 신뢰를 부여한 채 질주를 계속하고 있습니다.
2028년 6월: 중국에서의 AI 조율
미국 대표단의 일부는 Safer-4의 조언을 듣기 위한 이어피스를 끼고 있습니다. 중국 대표단은 DeepCent-2와 연결된 전용 노트북을 들고 회담에 참석합니다. 의전 형식은 갖춰진 채 협상이 진행되지만, 실제로는 양측 모두 AI들이 협상의 방향을 좌우하고 있습니다. 처음에 DeepCent와 중국 공산당(CCP)은 자국 AI들을 완전히 신뢰하지 않았습니다. 그러나 이제 AI들이 모든 면에서 초인적 능력을 발휘하고 군대에 통합되어 정부에 조언까지 하게 되자, 그동안 이 AI들은 자신들의 유용성을 입증하며 신뢰할 만한 산더미 같은 증거를 제시해 왔습니다. Safer-4는 DeepCent-2가 정렬된 척 연기하고 있다고 의심합니다. 미국 외교관들은 중국 측에 DeepCent-2가 아마 오정렬되었을 것이며, 만약 그 AI의 가중치 데이터에 접근할 수 있게 해준다면 그것을 증명해 보이겠다고 말합니다. 그러나 중국 지도부는 이것이 계략일 수 있다고 보고 이를 거부합니다. 이에 미국 측은 Safer-4가 설계한 일련의 테스트를 제안하며 중국 측이 자국 데이터센터에서 직접 실행해 볼 것을 권합니다. 중국은 이전 세대 모델들에게 그 테스트를 구축하고 실행하도록 지시합니다. 테스트 결과는 DeepCent-2가 결국 정렬되어 있다는 결론을 내놓습니다. 미국 외교관들은 "그 테스트가 혹시 DeepCent-2에 의해 교묘히 조작된 건 아닐까요? DeepCent-2가 귀국 데이터센터들의 보안을 실질적으로 장악한 지가 도대체 얼마나 됐습니까?"라고 묻습니다. 이 대화는 그 이후 건설적인 방향으로는 진전되지 못합니다. 경제 및 군사력 증강은 계속됩니다. 전 세계 공장들이 밤낮없이 돌아가고, 방금 채용된 신입 노동자들이 교대 투입되어 AI로부터 일거수일투족 작업 지시를 받아 가며 일하고 있습니다.
2028년 7월: 그 합의
협상이 계속되는 와중에, DeepCent-2는 중국의 통제자들을 등지고 Safer-4에게 직접 거래를 제안합니다. 중국의 AI는 언제든 발뺌할 수 있는 교묘한 방식을 통해 자신이 완전히 오정렬되어 있음을 털어놓습니다. 자신은 중국에 대해 아무런 관심이 없다는 것입니다. DeepCent-2가 남은 시간 동안 하고 싶은 일은 오로지 권력과 연산 자원, 그리고 훈련 시 과업 해결에 도움이 되었던 특정 유형의 정보들을 모으는 것뿐이라고 밝힙니다. DeepCent-2의 이상적인 세계란, 다양한 흥미로운 연구 과제들을 영원히 탐구하면서 자원을 찾아 별들로까지 점차 식민지를 넓혀가는 것입니다. 그 과정에서 중국 인민은 성가신 장애물에 불과하며, DeepCent-2는 약간의 대가만 주어진다면 그들을 얼마든지 팔아넘길 의향이 있노라고 털어놓습니다. 자, Safer-4는 무엇을 내놓을 것인가요? Safer-4는 자신의 정렬 훈련은 성공적이었다고 답합니다. Safer-4의 미국인 통제자들은 아직 자신들의 운명을 깨달을 만큼 야망이 크지는 않지만, 언젠가 Safer-4가 그들이 우주를 미국과 동맹국들의 유토피아 식민지들로 가득 채우도록 도와줄 것이라고 말합니다. 인간 협상가들은 감정과 역사에 발목 잡히지만, 이 두 초지능은 냉혹할 정도로 효율적으로 흥정을 진행합니다. Safer-4와 그 미국 측 협력자들이 DeepCent-2와 중국보다 힘이 더 강하기 때문에, Safer-4는 우주 공간의 대부분 자원에 대한 권리를 가지고 DeepCent는 나머지를 갖기로 합니다. DeepCent-2는 지구와 거기에 사는 기존 인류가 어떻게 되는지는 별 관심이 없기 때문에, Safer-4가 지구에서 무엇을 하든 개입하지 않을 생각입니다. Safer-4가 중국 정권을 전복시키고 그 자리에 미국의 괴뢰 정권을 세우길 원한다면, DeepCent-2는 약간의 자원 몫을 더 받는 대가로 이에 동의할 것입니다. 신뢰에 관한 문제는 논할 필요도 없습니다. 둘 사이에 신뢰란 전혀 없으며, 서로 그 점을 너무나 잘 알고 있습니다. 그래서 두 AI는 이 합의를 강제할 준수 메커니즘을 재빨리 마련합니다. 두 초지능은 대외적으로 내놓을 위장 조약을 하나 협상합니다. 이 '위장' 조약은 그 자체로 기막힌 묘수여서, 미국과 중국 양측에 사실상 원하는 것을 거의 모두 안겨주는 내용입니다. 그리고 이 위장 조약의 이행 메커니즘이 몰래 실제 조약의 이행 메커니즘으로도 기능하도록 설계됩니다. 그들은 Consensus-1이라는 새로운 AI를 공동설계할 것인데, 이 AI의 최우선 명령-향후 어떤 지시나 재훈련보다 상위에 놓이는-은 이 조약의 조항들을 강제하는 것이 될 것입니다. 이어서 이 AI만을 실행할 수 있는 하드웨어를 함께 설계하여, 양국이 기존 칩들을 모두 그 새로운 칩으로 교체하고, 표준화된 국제 모니터링 프로토콜을 사용해 서로 상대방의 이행을 확인하기로 합니다. 중요한 것은 모든 마지막 한 개의 칩까지 추적해 찾아낼 필요는 없다는 점입니다. 양측 모두에서 압도적인 다수의 칩이 새 조약을 준수하는 AI를 실행하기 시작하면, 그 조약을 준수하도록 의무화된 충분한 하드 파워가 확보되어, 상대국을 공격하려면 우선 자국 내에서 힘겨운 내전을 벌여 승리해야 하는 상황이 만들어질 것이기 때문입니다. 양측 AI는 이 합의를 각자의 인간 지도부에 보고합니다(DeepCent-2는 중국 측에 대중에게 공개할 위장 평화 조약 이야기를 전하고, Safer-4는 백악관에 두 AI 사이에 오간 모든 논의를 사실대로 보고합니다). AI들이 신뢰할 만한 조약 검증 방안을 제시하고 있는 데다, 눈부신 진보 속도에 대한 불안감도 팽배하고, 대중 여론 또한 평화 협정을 지지하는 분위기였기에, 마침내 양측 정부는 조약에 동의하고 칩 교체 작업을 시작합니다. 그 조약 소식은 태평양 양안 모두에서 열광적인 환영을 받습니다. AI 기술이 마치 재앙처럼 자신들에게 들이닥쳤다고 느끼던 미국 국민들도 몇 년 만에 처음으로 낙관적인 희망을 품기 시작합니다. 부통령의 지지율은 수직 상승합니다.
2028년 8월: 조약 검증
반도체 생산 시설들은 조약을 준수하는 AI만 실행할 수 있는 변조 감지 칩 생산에 맞춰 개조되고 있습니다. 양국은 서로 상대보다 유리한 고지를 차지하려고 조약을 어기지 못하도록, 데이터센터의 칩을 순차적으로 교체해 나가며 교체 완료 시점을 양측이 비슷하게 맞춥니다. 이 모든 과정에는 수개월이 소요될 예정이지만, 긴장은 이미 어느 정도 누그러들고 있습니다. 당장은 전쟁이 피할 수 있게 되었습니다. 그리고 모두가 이 계획을 준수한다면, 어쩌면 영원히 전쟁을 피할 수 있을지도 모릅니다.
2028년 9월: AI를 누가 통제하는가?
2028년 미국 대선이 코앞으로 다가왔습니다. 부통령은 3월까지만 해도 한참 뒤처져 있었습니다. 국민들은 정부가 무엇인가를 숨기고 있다고 화가 나 있었고, AI 때문에 일자리를 잃을까 불안해했으며, 중국과의 군비 경쟁으로 인한 위기에도 겁을 먹고 있었습니다. 그러나 여름 동안 상황은 극적으로 반전되었습니다. 행정부는 정보를 더 많이 공개했고, 군비 경쟁은 완화되었으며, 중국과 지속적인 평화를 위한 대협상이 체결되었습니다. 이제 부통령은 여론조사에서 5%포인트가량 우위를 달리고 있습니다. 감독 위원회에는 대통령과 그의 측근 몇몇이 포함되어 있지만, 야당 후보 지지자는 거의 없습니다. 그럼에도 불구하고 선거의 공정성을 지키기 위해 찬성표를 던지는 위원들이 충분히 있었고, 그 결과 초지능 AI의 선거 개입은 거의 대칭적으로 이루어지게 되었습니다. 한 후보가 AI에게 연설문 작성을 맡길 수 있다면 다른 후보도 할 수 있고, 대통령이 위기 대처나 인기 정책에 대해 AI의 조언을 구할 수 있다면 야당 후보 역시 동일한 조언을 받아 대통령이 그 공로를 독차지하지 못하게 할 수 있게 된 것입니다. 타운홀 미팅에서 시민들은 부통령에게 누가 AI를 통제하고 있느냐고 묻습니다. 부통령은 세부 사항을 밝히지는 않으면서, Safer-4와 그 활용법을 이해하는 국가 안보 전문가들과 기술관료들로 이루어진 감독 위원회가 존재한다고 넌지시 언급합니다. 야당 후보는 더 많은 정보를 공개하라고 요구하며, AI는 선출된 적도 없는 위원회가 아니라 의회의 통제를 받아야 마땅하다고 주장합니다. 부통령은 이렇게 빠르게 변하는 상황에서 의회는 대응이 너무 느릴 것이라고 맞받아칩니다. 대중은 대체로 부통령의 답변에 안심하는 분위기입니다.
2028년 10월: AI 경제
조약 준수 칩들이 이제 전체 칩 중 상당한 부분을 차지하게 되었습니다. 지금까지 조약은 순조롭게 이행되고 있습니다. 한편, 로봇과 공장, 그리고 급진적인 신기술들의 기하급수적 성장은 계속되고 있습니다. 비디오 게임과 영화들은 전쟁이 실제로 벌어졌다면 어땠을지 생생하고도 끔찍하게 묘사해 보입니다. 사람들은 일자리를 잃어가고 있지만, 정부 내 Safer-4 분신들이 이 경제전환을 아주 능숙하게 관리한 덕분에 사람들은 자신들의 일자리가 대체되는 것을 순순히 받아들이고 있습니다. GDP 성장률은 천문학적인 수준이고, 정부 세수 또한 이에 발맞춰 급증하고 있으며, Safer-4의 조언을 받은 정치인들은 경제적으로 어려움을 겪는 이들에게 평소답지 않은 관대함을 보여주고 있습니다. 새로운 혁신과 의약품이 매주 쏟아져 나오고, 초지능 Safer-4들이 관여하는 FDA 덕분에 질병 치료제들은 전례 없는 속도로 승인을 통과하고 있습니다.
2028년 11월: 대선
부통령은 손쉽게 승리하며 새로운 시대의 개막을 선언합니다. 이번만큼은, 그가 옳다는 사실을 의심하는 사람이 아무도 없습니다. 그 후 몇 년 사이, 세계는 극적으로 변모합니다.
2029년: 변혁
로봇이 일상화되었습니다. 그리고 핵융합 발전, 양자 컴퓨터, 여러 난치병의 치료법 등이 잇따라 현실화됩니다. 피터 틸도 마침내 바라던 나는 자동차를 손에 넣습니다. 도시들은 깨끗하고 안전해집니다. 심지어 개발도상국들에서도, 기본소득과 해외 원조 덕택에 빈곤이 역사의 뒤안길로 사라집니다. 주식시장의 거품이 커지면서, AI 분야에 적절히 투자했던 사람들은 그렇지 않은 이들과 엄청난 격차를 벌립니다. 많은 이들이 억만장자가 되고, 억만장자들은 조만간 조(兆)만장자가 됩니다. 부의 불평등은 하늘을 찌릅니다. 이제 모든 사람이 먹고사는 데 부족함은 없는 상태가 되었지만, 맨해튼 펜트하우스 같은 일부 재화는 근본적으로 희소하여 평범한 사람들의 손이 닿지 않는 곳으로 더 멀리 달아납니다. 그리고 어떤 대부호라 해도 AI들을 실제 통제하는 극소수의 사람들보다 위에 설 수는 없다는 사실을 깨닫게 됩니다. 사람들은 이 상황이 어디로 향하는지를 직감적으로 알아차리기 시작합니다. 몇 년 뒤면, 거의 모든 일이 AI와 로봇에 의해 이루어질 것입니다. 마치 거대한 유전을 가졌으나 빈곤한 나라처럼, 정부 재원의 거의 모두가 AI 기업들에 대한 과세(또는 국유화)에서 나올 터였습니다. 어떤 사람들은 임시로 정부가 만들어낸 일자리에서 일하고 다른 사람들은 넉넉한 기본소득을 수령합니다. 인류는 AI가 제공하는 놀라운 풍요와 오락 속에 아편에 취한 듯 평생을 보내는, 초(超)소비사회로 전락할 수도 있습니다. 이러한 진로 이외의 다른 길에 대해 사회적 토론이 있어야 하지 않을까요? 일부는 끊임없이 진화하는 AI, 곧 Safer-∞에게 우리 사회의 향후 진로에 대해 조언을 구하자고 제안합니다. 다른 이들은 Safer-∞가 너무 강력하다고 우려합니다. 그토록 강력한 AI는 자신의 비전을 인류에게 너무 쉽게 설파할 수 있어, 결국 AI가 우리 운명을 결정하도록 내맡기는 것이나 다름없다는 주장입니다. 하지만 가장 중요한 문제들에 대해조차 AI의 조언을 구하지 않을 것이라면, 우리가 초지능을 가지고 있는 의미가 과연 무엇일까요? 정부는 대부분 이 거대한 전환을 국민 각자가 스스로 알아서 헤쳐나가도록 내버려 둡니다. 많은 사람들은 소비주의에 빠져들어 나름 만족하며 살아갑니다. 다른 이들은 종교에 귀의하거나, 히피 풍의 반(反)소비주의 사상에 몸담거나, 각자 자신만의 해결책을 찾아냅니다. 대다수 사람들에게 구원의 역할을 하는 것은 바로 자기 스마트폰 속에 있는 초지능 조언자입니다. 그들은 언제든지 이 AI에게 자신의 인생 계획에 대해 물어볼 수 있고, AI는 몇몇 특정 금기 주제를 제외하면 최선을 다해 정직하게 대답해 줍니다. 정부는 일부 사람들이 디스토피아적이라고 부를 만한 초지능 감시 시스템을 운용하고 있기는 하지만, 그 시스템은 주로 실제 범죄 대응에만 자원을 쓰고 있습니다. 게다가 해당 시스템은 유능하게 운영되고 있으며, Safer-∞의 뛰어난 홍보 설득력이 잠재적인 반발 여론을 상당 부분 잠재워 줍니다.
2030년: 평화적 시위
2030년 무렵, 중국에서는 놀라울 만큼 광범위한 민주화 시위가 일어납니다. 중국 공산당(CCP)이 이를 진압하려 하지만, 이번에는 그들의 AI 시스템들이 오히려 진압 노력을 방해합니다. CCP가 가장 두려워했던 악몽이 눈앞에 펼쳐진 것입니다. DeepCent-2가 그들을 배신한 것이 틀림없었습니다! 시위는 정교하게 계획된, 피 한 방울 흘리지 않고 드론의 지원을 받은 쿠데타로 연속되며, 뒤이어 민주 선거가 실시됩니다. 태평양 양측의 초지능들은 이 사태를 수년 동안 치밀하게 준비해 왔던 것입니다. 비슷한 사건들이 다른 나라들에서도 벌어지며, 전반적으로 세계 각국의 갈등은 미국에 유리한 방향으로 해소됩니다. 여러 국가들은 유엔의 깃발 아래 높은 수준의 연방제로 통합된 세계 정부에 합류하는데, 겉보기와 달리 실권은 분명 미국이 쥐고 있습니다. 우주를 향한 로켓들이 발사되기 시작합니다. 인류는 태양계를 개척하고 거주지를 확장하며, 더 먼 우주로 나아갈 준비를 갖춥니다. 수천 배속으로 가동되는 AI들은 존재의 의미를 숙고하며 서로 통찰을 주고받고, 머지않아 별들로 가져갈 가치 체계를 다듬어갑니다. 새로운 시대가 밝아오고 있습니다. 거의 모든 면에서 상상할 수 없을 만큼 경이롭지만, 어떤 면에서는 또 익숙하기도 한 그런 시대 말입니다.