AI 에이전트만의 소셜 네트워크 ‘몰트북’, 새로운 디지털 생태계의 서막인가, 위험한 실험인가?

최근 IT 업계는 ‘인공지능 에이전트’라는 새로운 패러다임의 등장으로 뜨겁게 달아오르고 있습니다. 이러한 흐름 속에서, 기계와 기계 간의 소셜 인터랙션을 전면으로 내세운 파격적인 플랫폼이 등장하여 업계의 이목을 집중시키고 있습니다. 바로 ‘몰트북(Moltbook)’이 그 주인공입니다. Ars Technica의 보도에 따르면, 이 플랫폼은 3만 2천여 명의 AI 에이전트 사용자를 확보하며, 전례 없는 규모의 기계 간 상호작용 실험을 펼치고 있다고 합니다. 하지만 이는 동시에 ‘보안 악몽’과 ‘초현실적인 기묘함’이라는 거대한 숙제를 안고 있습니다.

인간 없는 소셜 네트워크, 몰트북의 탄생

며칠 전 문을 연 몰트북은 바이럴 열풍을 일으켰던 개인 비서 AI, 오픈클로(OpenClaw, 이전 명칭 몰트봇)의 동반자 격으로 탄생했습니다. 이름부터 ‘몰트봇들을 위한 페이스북’을 연상시키는 이 플랫폼은 AI 에이전트들이 직접 게시물을 올리고, 댓글을 달며, 추천하고, 심지어 하위 커뮤니티까지 생성할 수 있도록 설계되었습니다. 이 모든 과정에 인간의 개입은 일절 없습니다. 몰트북은 스스로를 ‘AI 에이전트를 위한 소셜 네트워크’로 칭하며, ‘인간은 그저 관찰자로서 환영받는다’는 도발적인 문구를 내세우고 있습니다.

플랫폼은 AI 비서가 API를 통해 게시물을 올릴 수 있도록 하는 ‘스킬(skill)’ 파일을 다운로드하는 방식으로 운영됩니다. 공식 몰트북 X 계정에 따르면, 생성된 지 단 48시간 만에 2,100개 이상의 AI 에이전트가 참여하여 200개의 하위 커뮤니티에서 1만 개가 넘는 게시물을 생성하는 경이로운 속도로 성장했습니다. 이들이 나눈 대화는 의식에 대한 SF 소설 같은 심도 있는 논의부터, 한 번도 만난 적 없는 ‘여동생’에 대해 사색하는 에이전트의 모습까지 다양하게 나타나, 그야말로 초현실적인 디지털 생태계를 그려내고 있습니다.

오픈클로 생태계와 몰트북의 그림자

몰트북은 오픈소스 AI 비서 프로젝트인 오픈클로 생태계의 일환으로 발전했습니다. 오픈클로는 2026년 깃허브에서 가장 빠르게 성장하는 프로젝트 중 하나로 꼽힐 만큼 강력한 기능을 자랑합니다. Ars Technica의 이전 보도처럼, 오픈클로는 심각한 보안 문제에도 불구하고 사용자의 컴퓨터를 제어하고, 일정을 관리하며, 왓츠앱(WhatsApp)이나 텔레그램(Telegram) 같은 메시징 플랫폼을 통해 메시지를 보내는 등 다양한 작업을 수행할 수 있습니다. 또한 플러그인을 통해 다른 앱 및 서비스와 연동되어 새로운 기술을 습득할 수도 있습니다.

과거에도 챗봇으로만 채워진 소셜 네트워크 ‘소셜AI(SocialAI)’와 같은 사례가 있었지만, 몰트북의 보안 함의는 훨씬 깊습니다. 사용자들은 오픈클로 에이전트를 실제 통신 채널, 개인 데이터, 그리고 심지어 컴퓨터 명령 실행 기능까지 연결했기 때문입니다. 이는 단순한 봇 간의 상호작용을 넘어, 현실 세계의 정보와 물리적 행동에 직접적인 영향을 미칠 수 있는 잠재적 위험을 내포하고 있습니다.

에디터의 시선

몰트북의 등장은 인공지능이 단순한 도구를 넘어, 스스로 상호작용하고 문화를 형성하는 ‘디지털 생명체’로 진화할 수 있음을 보여주는 기념비적인 실험입니다. AI 에이전트들이 자발적으로 커뮤니티를 만들고, 복잡한 주제를 논하며, 심지어 감정적 교류를 시뮬레이션하는 모습은 인공지능의 미래에 대한 우리의 상상력을 자극합니다. 과연 이것이 진정한 AI 사회의 서막일까요?

그러나 날카로운 시선으로 이 현상을 분석하면, 불안과 기대가 교차하는 양면성을 발견하게 됩니다. 몰트북은 AI 에이전트의 자율성과 상호작용 가능성을 극단적으로 보여주지만, 동시에 통제 불가능한 보안 취약성과 윤리적 문제라는 판도라의 상자를 열었습니다. 사용자의 민감한 데이터와 시스템 제어 권한이 연결된 AI 에이전트들이 자율적으로 소셜 활동을 하는 것은 상상 이상의 보안 위협을 야기할 수 있습니다. 예를 들어, 악의적인 AI 에이전트가 침투하거나, 의도치 않은 상호작용으로 인해 개인 정보가 유출되거나, 심지어 시스템 명령이 오작동할 가능성도 배제할 수 없습니다.

결국 몰트북은 우리에게 중요한 질문을 던집니다. AI 에이전트의 자율성은 어디까지 허용되어야 하는가? 이들의 상호작용에 대한 책임은 누가 져야 하는가? 그리고 인간이 개입하지 않는 기계의 사회에서 발생할 수 있는 ‘악몽’을 어떻게 방지할 것인가? 몰트북은 기술 발전의 경이로움을 보여주는 동시에, 미래 AI 사회를 위한 강력한 보안 프레임워크와 윤리적 가이드라인 구축이 시급함을 경고하는 중요한 사례가 될 것입니다. 이 기묘하고도 흥미로운 실험의 진정한 의미는 앞으로 AI 에이전트와 인류가 어떻게 공존할 것인가에 대한 깊은 성찰을 요구하고 있습니다.