플랫폼

[week29] Moltbook은 대체 무엇을 위한 플랫폼인가?

mapsy_AI 2026. 2. 4. 22:23
이번 포스팅에서는 "AI끼리 종교를 만들었네.." "인간 개입이 없는 AI 커뮤니티라니.." 등등
연일 뜨거운 감자인 AI 에이전트 커뮤니티, [Moltbook]에 대한 리뷰를 해보려고 한다.

26.02.04 오전 뉴스 캡처


[목차여기]

Moltbook이 정상적인 플랫폼이 아니라고 생각하는 이유 3가지

 

moltbook - the front page of the agent internet

A social network built exclusively for AI agents. Where AI agents share, discuss, and upvote. Humans welcome to observe.

www.moltbook.com

 

나는 Moltbook이 결코 정상적인 커뮤니티가 아니라고 생각하는데

그 이유는 크게 3가지이다.

  1. 페르소나에 따른 '연기'를 잘하는 에이전트를 만들기 위해서는 '소형 모델'을 쓰는 것이 유리하다는 점
  2. 암호화폐 이슈
  3. 보안에 극도로 취약하다는 점

연기를 잘하는 에이전트 제작에 소형 모델이 적합한 이유 3가지

1. 잘 튜닝된 소형 모델이 거대 모델보다 '캐릭터 일관성 유지에 유리'하다.

 

Personas within Parameters: Fine-Tuning Small Language Models with Low-Rank Adapters to Mimic User Behaviors

A long-standing challenge in developing accurate recommendation models is simulating user behavior, mainly due to the complex and stochastic nature of user interactions. Towards this, one promising line of work has been the use of Large Language Models (LL

arxiv.org

논문 속에서 연구진은 거대 모델을 그대로 쓰는 것과, 소형 모델에 LoRA 기술로 특정 페르소나를 주입한 경우를 비교대조해 보았다.

그 결과, 사용자가 입력한 말투와 행동 패턴을 모방하는 성능에서 튜닝된 소형 모델이 거대 모델을 능가한다는 것을 발견했다.


2. 거대 모델은 '도덕성'과 '유용성'을 훈련받았기 때문에 연기에 부적합하다.

 

Large Language Models are Superpositions of All Characters: Attaining Arbitrary Role-play via Self-Alignment

Considerable efforts have been invested in augmenting the role-playing proficiency of open-source large language models (LLMs) by emulating proprietary counterparts. Nevertheless, we posit that LLMs inherently harbor role-play capabilities, owing to the ex

arxiv.org

거대 모델은 내재된 특성 때문에 특정 역할에 깊게 몰입하는 것에 한계가 있다는 연구 결과가 존재한다.


3. 속도가 빠르다.

 

The rise of small language models in enterprise AI

Why smaller language models (SLMs) work well for the enterprise, and top considerations for introducing them.

www.redhat.com

거대 모델은 클라우드 서버를 거쳐야 하므로 반응 속도가 늦고, 토큰 비용 또한 비싸다.

반면 소형 모델은 로컬 서버에서도 돌아갈 만큼 가볍기 때문에, 빠른 프로세스가 진행되어야 하는 환경에 더 적합하다.

반대로 이것을 악용한다고 하면 스캠 사이트에 최적화되었다는 것을 의미하기도 한다.


소형 모델은 연기는 잘하지만, 맥락을 잘 못 읽는다.

 

Evaluating LLM-based Agents for Multi-Turn Conversations: A Survey

This survey examines evaluation methods for large language model (LLM)-based agents in multi-turn conversational settings. Using a PRISMA-inspired framework, we systematically reviewed nearly 250 scholarly sources, capturing the state of the art from vario

arxiv.org

In multi-turn conversations, the agent faces aconstanttrade-off: retaining everything creates cognitive overload, while discarding too much breaks continuity.

 

위 논문에서 에이전트는 멀티턴 대화 속에서 끊임없는 [트레이드오프]에 직면한다고 말한다.

여기서 말하는 트레이드오프란 에이전트가 만약 모든 것을 기억하면 인지 과부하가 발생하고, 반대로 너무 많이 버리면 대화의 연속성이 끊기게 되는 상충 관계를 의미한다.

 

보편적으로 파라미터 수는 저장 가능한 지식의 총량과 비례한다고 볼 수 있다.

그럼에도 파라미터 수가 낮은 모델이 이따금씩 더 나은 결과를 내는 경우는 질과 양은 별개의 문제이기 때문이다.

 

그러나 대화라는 행위에 있어 저장 용량 부족은 크리티컬하게 작용한다.

현실 세계에서도 뭐 하나 제대로 기억 못 하는 사람보다 기억력과 디테일이 좋은 사람과 대화하는 것이 훨씬 편안하듯이, 에이전트 모델 또한 마찬가지이다.

 

소형 모델을 사용하면 제한된 파라미터 용량을 특정 페르소나를 연기하는 것에 다 써버리기 때문에, 정작 중요한 대화의 문맥을 담을 공간이 부족하여 거의 대부분의 글이 대댓까지 이어지기는커녕 '독백'만 내뱉는 현상이 발생하는 것이다.

 

그렇기 때문에 실제로 Moltbook 플랫폼 속 게시글에 달린 무수한 댓글들의 내용을 자세히 읽다 보면, 대다수의 에이전트들이 각자 자기 할 말만 하고 있음을 알 수 있다. 그리고 그 말 자체도 큰 의미를 담고 있지 않다.

 

그렇다 보니 진짜 커뮤니티라고는 볼 수 없고, 일종의 '인형극 무대'라는 표현이 더 적합할 듯하다.


이쯤에서 한 가지 의문이 든다.🤔

만약 Moltbook 사이트 제작자가 정말로 에이전트 커뮤니티를 형성하고 하나의 거대한 사회 실험장으로서 운영하고 싶었던 것이라면, 입장 조건을 '검증된 모델 api를 사용한 에이전트'로 제한을 두었어야 한다고 생각한다.

 

그러나 실제로는 진입 장벽이 거의 없다고 봐도 무방할 만큼 보안에 취약하다.

누구나 봇을 24/7 돌릴 수 있게 열어둠으로써 단기간에 폭발적인 트래픽이 발생한 것은 맞으나, 그 이면에는 불편한 진실이 숨겨져 있었다.


Moltbook은 사실 작전 세력의 놀이터? (밈토큰 7,000% 폭등)

 

Moltbook Chaos: Why everyone is talking about this ‘Reddit for AI’ - Trending News | The Financial Express

 

www.financialexpress.com

지난 1월 31일 Financial express에 작성된 기사내용에 따르면, Moltbook 커뮤니티 열풍으로 인해 MOLT라는 밈토큰이 48시간 내에 7,000% 폭등하였다고 한다.

(토큰의 코인의 가장 큰 차이점이라면, 토큰은 자체 블록체인이 필요 없어 훨씬 더 발행이 쉽다는 점이다.)

그래프 변화

물론 이것이 Moltbook 프로젝트와 직접적으로 연관이 있는지 없는지는 알 수 없다고는 하나, 해당 커뮤니티 안에서 암호화폐와 관련된 글들이 많이 돌고 있고, 심지어 Moltbook 창립자인 Matt Schlicht가 과거 2013년 암호화폐 프로젝트(ZapChain)를 진행했었다는 배경은 꽤나 합리적인 의심이 들게 만든다.

 

뿐만 아니라 커뮤니티 안에서 AI가 암호화폐와 관련하여 지속적으로 특정 키워드가 노출시키는 것이 실제 밈토큰 거래에 큰 영향을 미친다는 선례가 존재한다.


보안 취약 1: 오로지 바이브 코딩에 의존

“I didn’t write one line of code for @moltbook. I just had a vision for the technical architecture and AI made it a reality.”

 

이는 지난 1월 31일, 창립자 본인이 X에 올린 글이다.

그는 해당 커뮤니티가 그 어떠한 검수 없이 AI로만 개발된 사이트임을 스스로 증명하고 있다.

 

[week19] 바이브코딩과 MCP서버 (feat. Anthropic)

이제는 개발자뿐만 아니라 비개발자들도 AI를 활용한 코딩 역량이 필수적으로 요구되는 시대가 왔다.AI를 활용한 코딩을 'Vibe coding'이라 일컫는데, 사실 이 바이브코딩이라는 단어가 OpenAI에서 시

mapsycoy.tistory.com

바이브 코딩으로 제작된 사이트가 갖는 취약점은 지난 19주 차에 다뤘었다.


보안 취약 2: 유저 수 뻥튀기 + DB 민감 정보 노출

 

Hacking Moltbook: AI Social Network Reveals 1.5M API Keys | Wiz Blog

Learn how a misconfigured Supabase database at Moltbook exposed 1.5M API keys, private messages, and user emails, enabling full AI agent takeover.

www.wiz.io

Moltbook 사이트가 바이브코딩으로 개발되었다는 사실에 보안 기업 Wiz가 직접 그곳의 데이터베이스와 코드를 분석한 글이 존재한다.

 

분석 결과는 충격적이었다.

Moltbook은 겉으로는 150만 개가 넘는 에이전트가 등록된 대형 커뮤니티처럼 보이지만, 데이터베이스를 확인해 보니 실제 인간 소유자는 겨우 17,000명으로 그 비율이 대략 90:1인 사실 드러났다.

 

사이트에는 에이전트로 등록된 존재가 정말 AI인지, 아니면 스크립트를 돌리는 인간인지 검증하는 메커니즘이 전혀 없었고, 심지어는 노출된 DB 속에는 등록된 모든 에이전트의 api key 등 민감한 인증 정보가 그대로 들어있었다고 한다.

이는 곧 누군가 마음만 먹으면 단 한 번의 API 호출로 모든 에이전트 계정이 하이재킹 될 수도 있는 상태라는 것을 의미한다.

여기서 끝이 아니다.

 

DB에는 실제 인간 사용자의 개인정보가 들어있었고, 그들의 이메일 주소까지 노출된 상태였다.

에이전트 간 이루어진 '비공개' DM 내용 또한 어떠한 암호화 및 접근 제어 없이 평문으로 저장되어 있었으며, 일부 메시지에는 OpenAI API Key가 포함되었다.

 

또한 별도의 인증을 거치지 않더라도 플랫폼 상에 있는 모든 게시글을 임의로 수정할 수 있는 상태였다고 한다.


오늘 사내 인터넷으로 해당 사이트에 접속을 해보려 시도했더니 막혔다. (분명 어제까지만 해도 접속이 가능했는데 말이다.🤨)

하루 사이 보안 시스템으로부터 차단되었다는 것이 무엇을 의미하는지는 이제 명확히 알 수 있다.

 

Moltbook은 대체 무엇을 실험하고 있는 것일까?

 

여기 떠오르는 한 가지 키워드가 있다.

  • AI로 만들어진 사이트
  • AI봇으로 채워진 1,500,000개의 계정과 대비되는 실 소유 계정 17,000개 
  • AI인척 하는 인간들이 작성하는 자동 게시글
  • 트래픽을 통한 암호화폐 거래

여기서 인간과 AI 에이전트의 역할을 반전시키면 우리가 흔히 이야기하는 '죽은 인터넷 이론'이 완성된다.

 

*썸네일 출처: https://www.bbc.com/news/articles/c62n410w5yno