LLM2 Ollama + MCP Server 붙이기 - 3 로컬 MCP 후기(?)사실 대부분의 MCP 서버는 Claude나 Cursor, VScode를 사용한다는 전제 하에 동작하다 보니, 로컬에서 설계한 MCP client의 한계는 명확했다. 특히 여러번의 피드백과 그에 따른 재조정이 이뤄져야 하는 MCP에 대해서는 로컬에서 개발하는 것에 한계가 있었다. 날씨와 같은 정보나, 간단한 검색 등은 잘 가져오지만, Notion에서 페이지를 생성하거나 blender에서 모델을 생성하는 것 등의 MCP는 제대로 동작하지 않았다. (애초에 첫 번째 요청에 대한 응답 까지만 return 하고 그 이후의 작업은 이뤄지지 않으니 어쩔 수 없다.) 결국 MCP server를 Ollama에 붙이는 건, 어디까지나 제3의 툴이 필요로 하지 않고 단순히 input에 대한 답변을 가져.. 2025. 7. 27. Ollama + MCP Client 붙이기 - 1 로컬 Ollama에 MCP 붙이기Claude, VSCode, Cursor 등은 자체적으로 MCP Client를 제공해주기 때문에 정말 간단하게 원하는 MCP를 붙여 사용할 수 있지만, 우리의 로컬 llama는 안타깝게도 MCP Client가 없다. 때문에 직접 만들어주거나 남들이 만들어둔 MCP Client를 사용하는 방법이 있다. 그런데 장고로 개발하는 김에 한번 MCP Client가 어떻게 굴러가는지를 알아보고자 제 2의 두뇌 커서와 함께 한번 만들어보기로 했다. (그리고 후회했다.) MCP ClientMCP가 USB 포트와 같은 역할을 한다는 설명은 많이 들었지만, 그래서 어떻게 동작하는지에 대해서는 잘 와닿지가 않았다. 그래서 코파일럿에게 설명을 요구했다.요청 수신 (from Host or Mod.. 2025. 7. 7. 이전 1 다음 728x90 반응형