미로피쉬: 모든 것을 예측하는 오픈소스 AI 엔진

Emmanuel Mumba

Emmanuel Mumba

17 March 2026

미로피쉬: 모든 것을 예측하는 오픈소스 AI 엔진

인공지능은 빠르게 진화하고 있지만, 대부분의 AI 도구들은 여전히 익숙한 패턴을 따릅니다. 모델에 프롬프트를 주면 응답을 생성하는 식이죠.

하지만 지난 몇 년 동안, 새로운 범주의 AI 시스템들이 주목받기 시작했습니다. 바로 다중 에이전트 시뮬레이션으로, 여러 AI 에이전트가 공유된 디지털 환경 내에서 서로 상호작용하는 시스템입니다.

하나의 모델이 답변을 예측하거나 생성하려고 하는 대신, 이 시스템들은 정보를 교환하고, 의견을 형성하며, 서로에게 영향을 미치는 자율 에이전트들의 전체 그룹을 시뮬레이션합니다.

이 분야에서 최근 가장 많이 언급되는 프로젝트 중 하나는 MiroFish입니다. 이 프로젝트는 수천 개의 AI 에이전트를 사용하여 실제 시나리오를 시뮬레이션하도록 설계된 오픈 소스 군집 지능 엔진입니다. 이 프로젝트는 야심 찬 목표 덕분에 개발자와 AI 애호가들 사이에서 빠르게 주목을 받았습니다. 그 목표는 복잡한 사건들(금융 시장, 여론 변화, 정책 반응, 심지어 가상의 이야기까지)이 현실에서 일어나기 전에 시뮬레이션될 수 있는 디지털 샌드박스를 만드는 것입니다.

💡
AI 에이전트 및 MCP 서버를 구축하거나 상호작용하고 계신가요? Apidog는 MCP 서버 디버깅 및 테스트를 위해 특별히 설계된 강력한 내장 MCP 클라이언트를 제공합니다. 로컬 프로세스를 위한 STDIO를 통해 연결하든, 원격 서버를 위한 HTTP를 통해 연결하든, Apidog는 실행 가능한 도구, 사전 정의된 프롬프트, 서버 리소스를 손쉽게 테스트할 수 있는 직관적인 시각적 인터페이스를 제공합니다. 복잡한 OAuth 2.0 인증을 자동으로 처리하고 풍부한 Markdown 및 이미지 응답을 동적으로 렌더링하여 원활한 MCP 통합 테스트를 위한 최고의 도구입니다.

button

답변을 직접 생성하는 기존 AI 도구와 달리, MiroFish는 AI 에이전트의 완전한 디지털 사회를 구축합니다. 각 에이전트는 고유한 기억, 성격 특성 및 의사 결정 로직을 가지고 있습니다. 속보, 정책 제안 또는 금융 신호와 같은 새로운 이벤트가 도입되면 에이전트들은 서로 상호작용하기 시작하여 정보에 반응하고 서로의 행동에 영향을 미칩니다.

시간이 지남에 따라 그들의 상호작용은 실제 사람들의 그룹이 사건에 반응하는 방식과 유사한 패턴을 생성합니다. 이러한 패턴은 가능한 결과, 새로운 이야기 또는 정서의 변화를 드러낼 수 있어 이 시스템을 실험 및 예측을 위한 강력한 환경으로 만듭니다.

출처: X

MiroFish란 무엇인가?

본질적으로 MiroFish는 다중 에이전트 인공지능을 중심으로 구축된 군집 지능 시뮬레이션 엔진입니다.

단일 AI 모델에 의존하는 대신, 이 플랫폼은 시뮬레이션된 디지털 환경 내에 존재하는 대규모 자율 에이전트 집단을 생성합니다. 이들 각 에이전트는 가상 사회의 개별 참가자를 나타냅니다.

모든 에이전트는 다음과 같은 고유한 특성을 가집니다:

에이전트들이 서로 상호작용할 때, 그들은 정보를 교환하고, 의견을 형성하며, 사건에 반응합니다. 이는 창발적 행동을 만들어내는데, 이는 많은 개별 상호작용으로부터 대규모 결과가 자연스럽게 발생한다는 것을 의미합니다.

이 개념은 실제 인간 사회와 유사합니다. 현실 세계에서 여론, 시장 움직임, 사회적 경향은 종종 수백만 개의 개별 결정으로부터 나타납니다. 이러한 상호작용을 디지털로 시뮬레이션함으로써 MiroFish는 사건이 발생하기 전에 어떻게 전개될 수 있는지 모델링하려고 시도합니다.

간단히 말해, 이 플랫폼은 "만약 ~라면" 시나리오를 탐색하기 위한 디지털 샌드박스 역할을 합니다.

button

비전: 집단 지성의 거울

MiroFish의 비전은 개발자들이 현실 세계의 집단 지성 거울이라고 설명하는 것을 만드는 것입니다.

전통적인 예측 시스템은 종종 과거 데이터와 통계 모델에 크게 의존합니다. 이러한 접근 방식은 안정적인 환경에서는 잘 작동할 수 있지만, 인간 행동이 예측 불가능해질 때 종종 어려움을 겪습니다.

많은 실제 사건들은 숫자 패턴만이 아닌 사회적 상호작용에 의해 형성됩니다.

예를 들어:

MiroFish는 예측에 다른 방식으로 접근합니다. 데이터를 통해 미래를 직접 계산하려는 대신, 이 시스템은 개인이 상호작용하고 서로에게 영향을 미치는 디지털 환경을 재현합니다.

복잡한 결과는 이러한 상호작용으로부터 자연스럽게 나타날 수 있다는 생각입니다.

시뮬레이션된 에이전트가 이벤트에 어떻게 반응하는지 관찰함으로써, 이 플랫폼은 잠재적인 실제 결과를 통찰할 수 있습니다.

button

시드 데이터에서 디지털 세계로

MiroFish에서 시뮬레이션을 실행하는 것은 시스템이 시드 자료라고 부르는 것으로 시작합니다.

시드 자료는 시뮬레이션할 시나리오를 정의하는 정보입니다. 여기에는 다음이 포함될 수 있습니다:

사용자는 자료를 업로드하고 자연어를 사용하여 예측 목표를 설명합니다.

예를 들어, 누군가는 시스템에 다음을 시뮬레이션하도록 요청할 수 있습니다:

이 정보를 사용하여 MiroFish는 에이전트가 상호작용을 시작할 수 있는 디지털 환경을 구축합니다.

이 시스템은 본질적으로 시나리오가 전개될 수 있는 평행 디지털 세계를 만듭니다.

MiroFish 워크플로우: 시뮬레이션 파이프라인 작동 방식

배경에서는 MiroFish가 실제 데이터를 동적 시뮬레이션 환경으로 변환하는 구조화된 파이프라인을 따릅니다. 각 단계는 에이전트가 상호작용하고 의미 있는 결과를 생성하는 데 필요한 정보를 준비합니다.

1. 지식 그래프 구성

첫 번째 단계는 실제 데이터 소스에서 시드 정보를 추출합니다.

이러한 소스에는 다음이 포함될 수 있습니다:

그런 다음 시스템은 GraphRAG 아키텍처를 사용하여 지식 그래프를 구축합니다. 이 그래프는 시뮬레이션 중 에이전트가 사용할 엔티티, 관계 및 상황 정보를 구성합니다.

구조화된 데이터 외에도, 에이전트가 과거 맥락을 유지할 수 있도록 개별 및 그룹 기억 구조가 시뮬레이션에 주입됩니다.

2. 환경 생성

지식 그래프가 구축되면 플랫폼은 시뮬레이션 환경을 구성합니다.

이 단계에서 시스템은 여러 작업을 수행합니다:

에이전트에게는 신원, 배경 및 행동 규칙이 할당됩니다. 이는 에이전트 간의 상호작용이 실제 사회적 역동성을 닮도록 보장합니다.

3. 병렬 시뮬레이션 실행

환경이 준비되면 시뮬레이션이 시작됩니다.

수천 명의 에이전트가 환경 전반에 걸쳐 동시에 작동하며, 이벤트에 반응하고 서로 상호작용합니다. 이 플랫폼은 병렬 시스템에서 시뮬레이션을 실행하여 많은 수의 에이전트가 동시에 작동할 수 있도록 합니다.

이 단계에서 시스템은 자동으로 다음을 수행합니다:

그 결과는 이야기, 의견, 행동이 시간이 지남에 따라 진화하는 살아있는 시뮬레이션입니다.

4. 보고서 생성

시뮬레이션이 여러 주기를 거쳐 진행되면, ReportAgent라고 불리는 전문 AI 구성 요소가 결과를 분석합니다.

ReportAgent는 풍부한 분석 도구 세트에 접근할 수 있으며 시뮬레이션 환경과 깊이 상호작용할 수 있습니다. 이 구성 요소는 다음을 요약하는 구조화된 예측 보고서를 생성합니다:

이 보고서는 사용자가 시뮬레이션 중에 발생한 일을 해석하고 잠재적인 실제 영향을 이해하는 데 도움을 줍니다.

5. 시뮬레이션과의 심층적인 상호작용

MiroFish의 독특한 기능 중 하나는 사용자가 시뮬레이션된 세계와 직접 상호작용할 수 있다는 것입니다.

단순히 예측 보고서를 읽는 대신, 사용자는 다음을 수행할 수 있습니다:

사용자는 또한 ReportAgent와 통신하여 후속 질문을 하거나 더 심층적인 분석을 요청할 수 있습니다.

이러한 대화형 계층은 시뮬레이션 환경을 전통적인 예측 도구보다 훨씬 더 유연하게 만듭니다.

button

빠른 시작: MiroFish 로컬에서 실행하기

이 플랫폼을 실험하고자 하는 개발자들은 소스 배포 또는 Docker 배포를 사용하여 MiroFish를 로컬에 배포할 수 있습니다.

시스템 요구 사항

플랫폼을 설치하기 전에 개발자들은 다음 도구들이 설치되어 있어야 합니다:

도구 버전 목적
Node.js 18+ 프론트엔드 런타임 환경
Python 3.11–3.12 백엔드 런타임 환경
uv 최신 버전 Python 패키지 관리자

설치 확인:

node -v
python --version
uv --version

1단계: 환경 변수 구성

먼저, 예제 구성 파일을 복사합니다.

cp .env.example .env

다음으로, `.env` 파일을 편집하고 필요한 API 키를 추가합니다.

LLM API 구성

MiroFish는 OpenAI SDK 형식과 호환되는 모든 LLM API를 지원합니다.

예시 구성:

LLM_API_KEY=your_api_key
LLM_BASE_URL=https://dashscope.aliyuncs.com/compatible-mode/v1
LLM_MODEL_NAME=qwen-plus

문서에서는 Alibaba의 Bailian 플랫폼에서 제공하는 Qwen 모델 사용을 권장합니다.

대규모 시뮬레이션은 상당한 컴퓨팅 자원을 소비할 수 있으므로, 40라운드 미만의 시뮬레이션으로 시작하는 것이 좋습니다.


메모리 시스템 구성

MiroFish는 에이전트의 장기 기억 관리를 위해 Zep Cloud를 사용합니다.

예시 구성:

ZEP_API_KEY=your_zep_api_key

Zep Cloud의 무료 티어는 일반적으로 작은 실험에 충분합니다.


2단계: 의존성 설치

개발자는 단일 명령으로 필요한 모든 의존성을 설치할 수 있습니다:

npm run setup:all

또는 단계별로 설치할 수 있습니다.

Node 의존성 설치:

npm run setup

Python 백엔드 의존성 설치:

npm run setup:backend

이 명령은 필요한 Python 가상 환경을 자동으로 생성합니다.


3단계: 플랫폼 실행

설치 후 개발자는 단일 명령으로 프론트엔드 및 백엔드 서비스를 모두 시작할 수 있습니다.

npm run dev

실행되면 서비스는 다음 주소에서 사용할 수 있습니다:

프론트엔드 인터페이스:

<http://localhost:3000>

백엔드 API:

<http://localhost:5001>

필요한 경우 개발자는 서비스를 별도로 시작할 수도 있습니다.

백엔드만 시작:

npm run backend

프론트엔드만 시작:

npm run frontend

Docker 배포

컨테이너화된 환경을 선호하는 팀을 위해 MiroFish는 Docker 배포도 지원합니다.

먼저 위에서 설명한 대로 환경 변수를 구성합니다.

cp .env.example .env

그런 다음 Docker Compose를 사용하여 컨테이너를 시작합니다.

docker compose up -d

기본적으로 플랫폼은 다음 포트를 매핑합니다:

Docker 구성 파일에는 필요한 경우 컨테이너 이미지 다운로드 속도를 높이는 데 사용할 수 있는 주석 처리된 미러 소스도 포함되어 있습니다.

마지막 생각

아직 초기 개발 단계에 있지만, 군집 지능 플랫폼은 AI 시스템이 복잡한 사회 환경을 시뮬레이션할 수 있는 미래를 암시합니다. 정책을 구현하기 전에 테스트하고, 금융 발표 전에 시장 반응을 탐색하며, 정보가 소셜 네트워크를 통해 어떻게 확산될 수 있는지 조사할 수 있다고 상상해 보세요. 이러한 도구는 기업, 정부, 연구자들에게 강력한 의사 결정 지원 시스템이 될 수 있습니다. 물론 어떤 시뮬레이션도 실제 인간 행동의 복잡성을 완벽하게 포착할 수는 없습니다. 예상치 못한 사건과 문화적 뉘앙스는 항상 결과에 영향을 미칠 수 있습니다.

하지만 MiroFish와 같은 플랫폼은 AI가 결국 질문에 답하는 것을 넘어 전체 사회를 모델링하기 시작할 수 있는 방법을 보여줍니다. 실험적인 오픈 소스 프로젝트로 시작된 것이 이미 개발자와 연구자들 사이에서 상당한 논의를 불러일으켰습니다. 그리고 다중 에이전트 시뮬레이션이 계속 발전한다면, MiroFish와 같은 도구는 현실에서 전개되기 전에 디지털 세계에서 미래를 탐색할 수 있는 새로운 세대의 예측 기술을 향한 초기 단계가 될 수 있습니다.

button

Apidog에서 API 설계-첫 번째 연습

API를 더 쉽게 구축하고 사용하는 방법을 발견하세요