VScode GPT 무료 사용법 소개
코드 에디터에서 GPT 기능을 사용하려면 VScode에서 GitHub Copilot Individual 또는 Cursor를 사용해야 합니다. 하지만 이러한 서비스들은 매달 구독료를 지불해야 하기 때문에 비용 부담이 있을 수 있습니다.
완전히 무료로 GPT 기능을 사용하려면 Llama, Phi, Mistral 같은 오픈 소스를 사용해 로컬 서버에서 구동하는 방법이 있습니다. 또는 적은 비용을 들여 Antropic의 Claude 3.5 Sonnet, OpenAI의 GPT-4o-mini 사용을 위해 API를 충전해서 사용하는 방법도 있습니다.
가장 저렴한 모델인 GPT-4o-mini를 이용하면 경제적으로 사용할 수 있습니다.
GPT-4o-mini의 경우 API 요금이 굉장히 저렴해서 처음에 10달러(13,000원)만 충전하시면 오랫동안 편하게 쓰실 수 있습니다.
Input Token : GPT-4o-mini
모델은 GPT-4o-mini-2024-07-18을 사용했습니다.
엄청 많이 사용은 하지 않았습니다.
Output Token : GPT-4o-mini
API - 사용 금액
요금은 0.01 달러보다 적게 사용했습니다.
제가 많이 사용안한 것도 있지만 GPT-4o-mini의 경우 API 요금이 굉장히 저렴합니다.
합리적인 가격이라 부담없을 것 같습니다.
API - 사용 화면
VScode GPT 사용 - Continue 이용
먼저 VSCODE에서 확장(Extension)을 이용하여 GPT를 무료로 사용하는 방법에 대해 설명하겠습니다.
설치하시면 최초 GPT-4o와 Claude 3.5 Sonnet을 50개의 메시지까지는 무료로 이용하실 수 있습니다.
완전 무료로 사용하는 방법은 Llama 모델과 같은 Huggingface에 공개되어 있는 오픈 소스를 이용하시면 됩니다.
VScode 확장(Extension) - Continue 설치하기
VScode Extension에서 Continue를 검색해서 설치해줍니다.
설치하시면 왼쪽 사이드바에 다음과 같은 아이콘을 보실 수 있습니다.
설치는 여기까지가 끝입니다.
Continue 기능 소개
Continue를 클릭하시면 다음과 같은 이미지를 보실 수 있습니다.
여기서 원하는 모델을 사용하실 수 있습니다.
최초에는 Claude 3.5 Sonnet, GPT-4o를 50개까지 무료로 사용할 수 있습니다.
지금 보고 있는 모델은 제가 수정한 것입니다.
그리고 위에 상단을 보시면 2개가 있습니다
점 3개로 이루어진 건 단축키입니다.
그리고 톱니바퀴 모양의 설정을 클릭하시면 모델과 관련된 Json 형식의 파일이 열립니다.
여기서 모델 설정이나 기본 프롬프트 등을 수정할 수 있습니다.
모델 설정 관련해서는 맨 아래를 보시면 됩니다.
Ollama 딥시크 모델 추가
이번에 새로나온 딥시크 R1 모델까지 연결해보았습니다.
올라마로 딥시크 7B 모델을 다운 받았고, 해당 모델로 사용하기 위해 추가하였습니다.
딥시크를 다운받아 로컬로 사용하다 보니, 보안와 같은 문제는 안심이 됩니다.
주의할 점은 추론 모델이기 때문에 코드에 대한 설명 또는 어떤 문제를 해결하고자 질문을 던질 때 추론 과정이 길게 느껴질 수 있습니다.
답변 속도가 웹에 비해 빠른게 아니다 보니, 아무래도 config에서 제어해야 할 것 같습니다. 아니면 DeepSeek V3 모델도 써보는게 괜찮을 것 같네요.
VScode GPT - Continue 사용법(GPT-4o-mini)
준비 : 자신의 확장자 명에 맞는 파일을 만들어주거나 켜줍니다.
맥 단축키 : Cmd+i
윈도우 단축키 : Ctrl + i 키를 눌러주면 다음과 같은 창이 나옵니다.
여기에 Enter a prompt to edit your code가 있는데 여기에 원하는 질문을 GPT에게 하면 됩니다.
전 타이타닉 데이터를 가지고 와서 기본 정보를 조회할 수 있게 만드러 달라고 하였습니다.
그럼 아래와 같이 자동으로 코드를 작성해 줍니다.
위에 Accept와 Reject가 있는데 Accept는 코드를 받아들인다는 거고, Reject는 거절한다는 겁니다.
단축키는 아까 보았던 키 설정에 나와 있습니다.
출력도 잘 되는 것을 확인할 수 있습니다.
이제 여기서 수정을 원하는 코드가 있다면 블록처리해 주면 됩니다.
여기서 해주시고 단축키를 눌러주시면 됩니다.
맥 단축키: Cmd + shift + L
윈도우 : Ctrl + shift + L입니다.
왼쪽 사이드바 창에 내가 블록처리한 코드가 자동으로 붙여집니다.
여기에 질문을 다시 하시면 됩니다.
질문을 하면 다음과 같은 답변이 나옵니다. 여기서 화면에 Insert at cursor와 Copy가 있습니다.
Insert at cursor는 제가 블록처리한 코드가 자동으로 바뀌는 거고, Copy는 코드가 복사되는 겁니다.
Insert at cursor를 누르면 다음과 같이 자동으로 바뀝니다.
왼쪽 사이드바에서 추가적으로 질문할 수 있고, 아니면 Cmd + i or Ctrl + i로 추가로 질문할 수 있습니다.
결과를 출력해 보고 마음에 안 든다면 거절해도 되니 정말 편합니다.
그러면 원래 코드로 다시 되돌아옵니다.
VScode GPT - Continue 대화 출력 화면
사이드바에 있는 창을 조절할 수도 있어서 이건 늘렸다 줄였다 할 수 있습니다.
그러면 큰 화면으로 질문하고 답변받고, 편리하게 사용하실 수 있습니다.
그리고 사이드 창에서 흔히 ChatGPT나 Claude 사용할 때처럼 질문하실 수 있습니다.
후속 질문도 가능합니다.
VScode 오픈 소스 GPT 무료 사용 - Continue 사용법(Llama 3.2-3B)
오픈소스 모델을 사용하시려면 먼저 사용하고 싶은 모델을 다운로드하셔야 합니다.
LMStudio나 Ollama(올라마)를 통해 다운로드하는 방법이 편합니다.
Llama 3.2, Llama 3.1의 경우 출력속도가 많이 느립니다. 그래서 Llama 3.2 사용을 추천드립니다.
외국에서 만든 LLM 오픈 소스의 경우 한국어에 취약한 경우가 많습니다. 영어게 강점이 많습니다.
그래서 영어로 질문을 해야 잘 이해도 빠르게 하고, 답변도 어느 정도 잘해줍니다.
Llama 3.2-3B 모델 - 한국어 질문 및 답변
Llama 3.2-3B 모델 - 영어 질문 및 답변
확실히 내용적으로나 영어가 확장성이 더 높은 걸 확인할 수 있습니다.
VScode GPT - Continue Ollama(올라마) 오류 메시지 및 서버 활성화
Ollama에서 LLM 모델을 사용하실 때 VScode에서 Continue를 사용하실 때 다음과 같은 오류가 발생할 수 있습니다.
"Failed to connect to local Ollama instance. To start Ollama, first download it at https://ollama.ai."
이건 Ollama(올라마)를 비활성화가 되어서 나타는 메시지여서 활성화시켜주면 해결됩니다.
VScode GPT - Continue LMStudio 오류 메시지 및 서버 활성화
다음과 같은 유형의 메시지도 Ollama와 동일하게 활성화가 되어있지 않기 때문에 발생하는 메시지입니다.
LMStudio에서 "Start Server"를 눌러주시면 활성화됩니다.
다음과 같이 활성화되어서 사용하시면 됩니다.
그리고 Continue에서 모델 선택 하시고 사용하시면 됩니다.
VScode Continue - 모델 설정 및 GPT 활성화
톱니바퀴 설정을 누르셔서 Config.json 파일을 열어주시면 됩니다.
입력하시면 자동 활성화 됩니다.
Anthropic
{
"models": [
{
"title": "Claude 3.5 Sonnet",
"provider": "anthropic",
"model": "claude-3-5-sonnet-20240620",
"apiKey": "[API_KEY]"
}
]
}
OpenAI
{
"models": [
{
"title": "GPT-4o-mini",
"provider": "openai",
"model": "gpt-4o-mini",
"apiKey": "[API_KEY]"
}
]
}
Gemini
{
"models": [
{
"title": "Gemini 1.5 Pro",
"provider": "gemini",
"model": "gemini-1.5-pro-latest",
"apiKey": "[API_KEY]"
}
]
}
Mistral
{
"models": [
{
"title": "Mistral Large",
"provider": "mistral",
"model": "mistral-large-latest",
"apiKey": "[API_KEY]"
}
]
}
Ollama
{
"models": [
{
"title": "Ollama_llama3.2:latest",
"provider": "ollama",
"model": "llama3.2:latest"
}
]
}
LM Studio
{
"title": "LM Studio",
"model": "llama-3.2-3b-instruct",
"provider": "lmstudio",
"apiBase": "http://x.x.x.x:1234/v1/"
}
Ollama - DeepSeek R1
{
"title": "DeepSeek-R1",
"provider": "ollama",
"model": "deepseek-r1:7b"
},