AI4 Ollama + MCP Server 붙이기 - 3 로컬 MCP 후기(?)사실 대부분의 MCP 서버는 Claude나 Cursor, VScode를 사용한다는 전제 하에 동작하다 보니, 로컬에서 설계한 MCP client의 한계는 명확했다. 특히 여러번의 피드백과 그에 따른 재조정이 이뤄져야 하는 MCP에 대해서는 로컬에서 개발하는 것에 한계가 있었다. 날씨와 같은 정보나, 간단한 검색 등은 잘 가져오지만, Notion에서 페이지를 생성하거나 blender에서 모델을 생성하는 것 등의 MCP는 제대로 동작하지 않았다. (애초에 첫 번째 요청에 대한 응답 까지만 return 하고 그 이후의 작업은 이뤄지지 않으니 어쩔 수 없다.) 결국 MCP server를 Ollama에 붙이는 건, 어디까지나 제3의 툴이 필요로 하지 않고 단순히 input에 대한 답변을 가져.. 2025. 7. 27. Ollama + MCP Client 붙이기 - 1 로컬 Ollama에 MCP 붙이기Claude, VSCode, Cursor 등은 자체적으로 MCP Client를 제공해주기 때문에 정말 간단하게 원하는 MCP를 붙여 사용할 수 있지만, 우리의 로컬 llama는 안타깝게도 MCP Client가 없다. 때문에 직접 만들어주거나 남들이 만들어둔 MCP Client를 사용하는 방법이 있다. 그런데 장고로 개발하는 김에 한번 MCP Client가 어떻게 굴러가는지를 알아보고자 제 2의 두뇌 커서와 함께 한번 만들어보기로 했다. (그리고 후회했다.) MCP ClientMCP가 USB 포트와 같은 역할을 한다는 설명은 많이 들었지만, 그래서 어떻게 동작하는지에 대해서는 잘 와닿지가 않았다. 그래서 코파일럿에게 설명을 요구했다.요청 수신 (from Host or Mod.. 2025. 7. 7. Ollama LLM 사용기 나만의 개인 LLM을 가지고 싶었다.누구나 그런 꿈은 하나씩 가지고 있지 않을까? 아이언맨에 나오는 자비스처럼 여러가지 도움을 받을 수 있고, 나와의 대화를 기억하는 그런 AI 비서 말이다. 그리고 무엇보다 '무료로' 사용할 수 있는 AI. 멋진 스팩을 가지고 있는 내 맥북 프로를 썩혀두기에는 조금 아쉬운 듯 하여, Ollama 모델을 받아서 한번 내 개인 AI를 만들 수 있는지 맛보기를 해보려고 한다. llama3 모델 사용하기먼서 Ollama에 가서 다운을 받아야 한다.https://ollama.com/ OllamaGet up and running with large language models.ollama.com 필자의 경우, M3칩 512G 저장공간, 36 메모리를 사용중이다. 여유롭게 사용하고.. 2025. 6. 29. 바이브 코딩 프론트엔드 개발자의 운명은...최근 AI가 장착된 여러 개발 툴들이 소개되면서, 바이브 코딩이라는 새로운 트랜드가 등장한 것을 보았다. 스레드에서도 자주 접하는 단어였는데, 대체 바이브 코딩이 뭐길래 이렇게 다들 열광하는 걸까. 그리고 프론트엔드 개발자의 운명은 어디로 흘러가는가? 정말 미래에는 프론트엔드 개발자가 사라지는 걸까?바이브 코딩의 기원https://madhukarkumar.medium.com/a-comprehensive-guide-to-vibe-coding-tools-2bd35e2d7b4f대체 이게 뭔지를 찾아보는 도중에, 재미난 포스트를 찾았다. Vive coding이라는 단어(?)의 기원을 찾아가는 포스트였다. 처음 이 단어가 만들어진 곳은 X(구 파랑새 sns)에서 어떤 사람이 AI 개.. 2025. 6. 1. 이전 1 다음 728x90 반응형