VScode에서 Continue를 이용한 GPT 무료 사용법(API 활용) - ChatGPT, Claude, Llama, DeepSeek(딥시크) R1 등

2024. 10. 16. 15:32·생성형 AI/AI 활용기

블로그 로고
블로그 로고

VScode GPT 무료 사용법 소개

코드 에디터에서 GPT 기능을 사용하려면 VScode에서 GitHub Copilot Individual 또는 Cursor를 사용해야 합니다. 하지만 이러한 서비스들은 매달 구독료를 지불해야 하기 때문에 비용 부담이 있을 수 있습니다.

완전히 무료로 GPT 기능을 사용하려면 Llama, Phi, Mistral 같은 오픈 소스를 사용해 로컬 서버에서 구동하는 방법이 있습니다. 또는 적은 비용을 들여 Antropic의 Claude 3.5 Sonnet, OpenAI의 GPT-4o-mini 사용을 위해 API를 충전해서 사용하는 방법도 있습니다.

가장 저렴한 모델인 GPT-4o-mini를 이용하면 경제적으로 사용할 수 있습니다. 

GPT-4o-mini의 경우 API 요금이 굉장히 저렴해서 처음에 10달러(13,000원)만 충전하시면 오랫동안 편하게 쓰실 수 있습니다.

Input Token : GPT-4o-mini

모델은 GPT-4o-mini-2024-07-18을 사용했습니다.

엄청 많이 사용은 하지 않았습니다.

input token
input token

Output Token : GPT-4o-mini

ouput token
ouput token

API - 사용 금액 

요금은 0.01 달러보다 적게 사용했습니다.

제가 많이 사용안한 것도 있지만 GPT-4o-mini의 경우 API 요금이 굉장히 저렴합니다. 

합리적인 가격이라 부담없을 것 같습니다. 

사용 금액
사용 금액

API - 사용 화면

VScode GPT 사용 화면
VScode GPT 사용 화면

VScode GPT 사용 - Continue 이용

먼저 VSCODE에서 확장(Extension)을 이용하여 GPT를 무료로 사용하는 방법에 대해 설명하겠습니다.
설치하시면 최초 GPT-4o와 Claude 3.5 Sonnet을 50개의 메시지까지는 무료로 이용하실 수 있습니다.
완전 무료로 사용하는 방법은 Llama 모델과 같은 Huggingface에 공개되어 있는 오픈 소스를 이용하시면 됩니다.

VScode에서 GPT 사용하기
VScode에서 GPT 사용하기

VScode 확장(Extension) - Continue 설치하기

VScode Extension에서 Continue를 검색해서 설치해줍니다.

VScode Extension - Continue 설치
VScode Extension - Continue 설치

설치하시면 왼쪽 사이드바에 다음과 같은 아이콘을 보실 수 있습니다. 

설치는 여기까지가 끝입니다. 

VScode 왼쪽 사이드바 Continue 아이콘
VScode 왼쪽 사이드바 Continue 아이콘

Continue 기능 소개

Continue를 클릭하시면 다음과 같은 이미지를 보실 수 있습니다.

여기서 원하는 모델을 사용하실 수 있습니다.

최초에는 Claude 3.5 Sonnet, GPT-4o를 50개까지 무료로 사용할 수 있습니다. 

지금 보고 있는 모델은 제가 수정한 것입니다. 

Continue 모델 선택 화면
Continue 모델 선택 화면

그리고 위에 상단을 보시면 2개가 있습니다

점 3개로 이루어진 건 단축키입니다.

Continue 단축키 화면
Continue 단축키 화면

그리고 톱니바퀴 모양의 설정을 클릭하시면 모델과 관련된 Json 형식의 파일이 열립니다. 

여기서 모델 설정이나 기본 프롬프트 등을 수정할 수 있습니다. 

모델 설정 관련해서는 맨 아래를 보시면 됩니다. 

Continue 모델 설정 화면
Continue 모델 설정 화면

Ollama 딥시크 모델 추가

이번에 새로나온 딥시크 R1 모델까지 연결해보았습니다. 

올라마로 딥시크 7B 모델을 다운 받았고, 해당 모델로 사용하기 위해 추가하였습니다.

딥시크 R1 모델 추가
딥시크 R1 모델 추가

딥시크를 다운받아 로컬로 사용하다 보니, 보안와 같은 문제는 안심이 됩니다.

주의할 점은 추론 모델이기 때문에 코드에 대한 설명 또는 어떤 문제를 해결하고자 질문을 던질 때 추론 과정이 길게 느껴질 수 있습니다.

답변 속도가 웹에 비해 빠른게 아니다 보니, 아무래도 config에서 제어해야 할 것 같습니다. 아니면 DeepSeek V3 모델도 써보는게 괜찮을 것 같네요.

딥스크 인사
딥스크 R1 인사

VScode GPT - Continue 사용법(GPT-4o-mini)

준비 : 자신의 확장자 명에 맞는 파일을 만들어주거나 켜줍니다. 

맥 단축키 : Cmd+i

윈도우 단축키 : Ctrl + i 키를 눌러주면 다음과 같은 창이 나옵니다.

Cmd+i or Ctrl + i
Cmd+i or Ctrl + i

여기에 Enter a prompt to edit your code가 있는데 여기에 원하는 질문을 GPT에게 하면 됩니다.

전 타이타닉 데이터를 가지고 와서 기본 정보를 조회할 수 있게 만드러 달라고 하였습니다. 

Continue 사용법-1
Continue 사용법-1

그럼 아래와 같이 자동으로 코드를 작성해 줍니다.

Continue 사용법-2
Continue 사용법-2

위에 Accept와 Reject가 있는데 Accept는 코드를 받아들인다는 거고, Reject는 거절한다는 겁니다.

단축키는 아까 보았던 키 설정에 나와 있습니다. 

Accept, Reject 단축키
Accept, Reject 단축키

출력도 잘 되는 것을 확인할 수 있습니다.

코드 출력 결과
코드 출력 결과

이제 여기서 수정을 원하는 코드가 있다면 블록처리해 주면 됩니다.

코드 수정 요청-1
코드 수정 요청-1

여기서 해주시고 단축키를 눌러주시면 됩니다.

맥 단축키: Cmd + shift + L 

윈도우 : Ctrl + shift + L입니다.  

코드 선택 단축키
코드 선택 단축키

왼쪽 사이드바 창에 내가 블록처리한 코드가 자동으로 붙여집니다. 

여기에 질문을 다시 하시면 됩니다. 

코드 수정 요청-2
코드 수정 요청-2

질문을 하면 다음과 같은 답변이 나옵니다. 여기서 화면에 Insert at cursor와 Copy가 있습니다. 

Insert at cursor는 제가 블록처리한 코드가 자동으로 바뀌는 거고, Copy는 코드가  복사되는 겁니다. 

코드 수정 요청-3
코드 수정 요청-3

Insert at cursor를 누르면 다음과 같이 자동으로 바뀝니다.

코드 수정 요청-4
코드 수정 요청-4

왼쪽 사이드바에서 추가적으로 질문할 수 있고, 아니면 Cmd + i or Ctrl + i로 추가로 질문할 수 있습니다.

추가 질문 화면
추가 질문 화면

결과를 출력해 보고 마음에 안 든다면 거절해도 되니 정말 편합니다.

그러면 원래 코드로 다시 되돌아옵니다. 

코드 거절 화면
코드 거절 화면

VScode GPT - Continue 대화 출력 화면

사이드바에 있는 창을 조절할 수도 있어서 이건 늘렸다 줄였다 할 수 있습니다. 

대화창 늘리기
대화창 늘리기

그러면 큰 화면으로 질문하고 답변받고, 편리하게 사용하실 수 있습니다.

그리고 사이드 창에서 흔히 ChatGPT나 Claude 사용할 때처럼 질문하실 수 있습니다. 

GPT에게 질문 하기
GPT에게 질문 하기

후속 질문도 가능합니다.

GPT에게 후속 질문 하기
GPT에게 후속 질문 하기

VScode 오픈 소스 GPT 무료 사용 - Continue 사용법(Llama 3.2-3B)

오픈소스 모델을 사용하시려면 먼저 사용하고 싶은 모델을 다운로드하셔야 합니다.

LMStudio나 Ollama(올라마)를 통해 다운로드하는 방법이 편합니다.

Llama 3.2, Llama 3.1의 경우 출력속도가 많이 느립니다. 그래서 Llama 3.2 사용을 추천드립니다. 

외국에서 만든 LLM 오픈 소스의 경우 한국어에 취약한 경우가 많습니다.  영어게 강점이 많습니다.

그래서 영어로 질문을 해야 잘 이해도 빠르게 하고, 답변도 어느 정도 잘해줍니다. 

Llama 3.2-3B 모델 - 한국어 질문 및 답변

LLama 3.2 한국어 답변1
Llama 3.2 한국어 답변1
Llama 3.2 한국어 답변2
Llama 3.2 한국어 답변2

Llama 3.2-3B 모델 -  영어 질문 및 답변

확실히 내용적으로나 영어가 확장성이 더 높은 걸 확인할 수 있습니다. 

Llama 3.2 영어 답변1
Llama 3.2 영어 답변1
Llama 3.2 영어 답변2
Llama 3.2 영어 답변2
Llama 3.2 영어 답변3
Llama 3.2 영어 답변3

VScode GPT - Continue Ollama(올라마) 오류 메시지 및 서버 활성화

Ollama에서 LLM 모델을 사용하실 때 VScode에서 Continue를 사용하실 때 다음과 같은 오류가 발생할 수 있습니다. 

"Failed to connect to local Ollama instance. To start Ollama, first download it at https://ollama.ai."

이건 Ollama(올라마)를 비활성화가 되어서 나타는 메시지여서 활성화시켜주면 해결됩니다.

Continue Ollama error message
Continue Ollama error message

VScode GPT - Continue LMStudio 오류 메시지 및 서버 활성화

다음과 같은 유형의 메시지도 Ollama와 동일하게 활성화가 되어있지 않기 때문에 발생하는 메시지입니다. 

Continue LMStudio error message
Continue LMStudio error message

LMStudio에서 "Start Server"를 눌러주시면 활성화됩니다. 

LMStudio 서버 활성화
LMStudio 서버 활성화

다음과 같이 활성화되어서 사용하시면 됩니다.

그리고 Continue에서 모델 선택 하시고 사용하시면 됩니다. 

Continue LMStudio 모델 선택
Continue LMStudio 모델 선택

VScode Continue  - 모델 설정 및 GPT 활성화 

톱니바퀴 설정을 누르셔서 Config.json 파일을 열어주시면 됩니다.

입력하시면 자동 활성화 됩니다. 

Anthropic

{
  "models": [
    {
      "title": "Claude 3.5 Sonnet",
      "provider": "anthropic",
      "model": "claude-3-5-sonnet-20240620",
      "apiKey": "[API_KEY]"
    }
  ]
}

OpenAI

{
  "models": [
    {
      "title": "GPT-4o-mini",
      "provider": "openai",
      "model": "gpt-4o-mini",
      "apiKey": "[API_KEY]"
    }
  ]
}

Gemini

{
  "models": [
    {
      "title": "Gemini 1.5 Pro",
      "provider": "gemini",
      "model": "gemini-1.5-pro-latest",
      "apiKey": "[API_KEY]"
    }
  ]
}

Mistral

{
  "models": [
    {
      "title": "Mistral Large",
      "provider": "mistral",
      "model": "mistral-large-latest",
      "apiKey": "[API_KEY]"
    }
  ]
}

Ollama

{
  "models": [
    {
      "title": "Ollama_llama3.2:latest",
      "provider": "ollama",
      "model": "llama3.2:latest"
    }
  ]
}

LM Studio

{
  "title": "LM Studio",
  "model": "llama-3.2-3b-instruct",
  "provider": "lmstudio",
  "apiBase": "http://x.x.x.x:1234/v1/"
}

Ollama - DeepSeek R1

    {
      "title": "DeepSeek-R1",
      "provider": "ollama",
      "model": "deepseek-r1:7b"
    },
저작자표시 비영리 변경금지 (새창열림)
'생성형 AI/AI 활용기' 카테고리의 다른 글
  • 딥시크(Deepseek) 로컬 사용법(올라마 + Open WebUI, LMstudio) - 딥시크 모델 다운로드
  • Open-WebUI 설치 및 사용법 - Ollama(올라마) with Docker
  • Ollama(올라마) 설치 및 사용법 - Llama 3.2 3B 사용하기
  • RAG(검색 증강 생성) 쉬운 설명 및 예시 - LLM 사용 필수 지식
hyunicecream
hyunicecream
안녕하세요. 여러가지 정보를 통해 조금이나마 도움이 되고자 시작하게 되었습니다.
  • hyunicecream
    Café
    hyunicecream
  • 홈
  • 포스팅 카테고리

    • 분류 전체보기
      • 생성형 AI
        • ChatGPT
        • Claude AI
        • MS Copilot
        • Perplexity
        • 생성형 AI 정보
        • 프롬프트 작성 가이드
        • AI 활용기
      • Notion
      • 업무 생산성
      • Python
        • pandas
      • 머신러닝
      • 딥러닝
      • Terminal
      • SQL
        • Postgre SQL
      • 여행정보
        • 국내여행
  • 최근 글

  • hELLO· Designed By정상우.v4.10.3
hyunicecream
VScode에서 Continue를 이용한 GPT 무료 사용법(API 활용) - ChatGPT, Claude, Llama, DeepSeek(딥시크) R1 등
상단으로

티스토리툴바