
Perplexity Pro에서 DeepSeek R1과 o3-mini의 활용
OpenAI에서 o3 모델을 발표와 딥시크의 등장으로 Perplexity(퍼플렉시티) Pro 사용자들은 새로운 두 가지 모델인 딥시크 R1 모델과 o3-mini 모델을 사용할 수 있게 되었습니다.
퍼플렉시티 홈페이지에 들어가시면 다음과 같이 추론 모델을 선택할 수 있습니다.

퍼플렉시티 AI 커뮤니티에 따르면 딥시크 R1 모델은 하루에 500개의 쿼리(메시지)를 사용할 수 있다고 합니다.
하지만 o3-mini에 대한 정확한 쿼리 제한 여부는 아직 나와있는 게 없습니다. 많은 사람들은(R1 + o3-mini) 통합으로 500개라고 말하는 사람도 있습니다.
그래서 두 모델이 동일한 제한을 갖는지, 혹은 DeepSeek R1만 500개 제한을 적용받는지는 추가적인 확인이 필요합니다.
딥시크(DeepSeek) R1 모델에 대한 데이터 보안
퍼플렉시티에서는 딥시크의 API를 사용하지 않고 독립적으로 해당 모델을 미국 및 EU 데이터 센터에서 운영하고 있다고 밝히고 있습니다.
따라서 사용자 데이터는 중국으로 전송되지 않으며, 모든 데이터 처리는 미국과 유럽 데이터 센터에서 이루어집니다.

딥시크에 대한 주요 FAQ - 퍼플렉시티 홈페이지 원문 참조
홈페이지에 나와있는 FAQ에 대한 내용을 요약하면 다음과 같습니다.
- DeepSeek R1은 어떤 모델인가?
- 오픈 소스 기반의 추론 모델로, DeepSeek 플랫폼과 별개로 활용 가능
- 퍼플렉시티에서는 DeepSeek API를 사용하지 않으며, 미국 기반 데이터 센터에서 모델을 운영
- 데이터가 중국으로 전송될 가능성이 있는가?
- 퍼플렉시티에서 DeepSeek R1을 활용하는 경우 데이터가 중국으로 전송되지 않음
- DeepSeek 웹사이트나 API를 직접 이용할 경우에만 중국으로 데이터가 전송될 수 있음
- DeepSeek R1을 비활성화할 수 있는가?
- 별도로 비활성화할 필요 없음, 기본적으로 선택 옵션이며 사용자가 직접 활성화 여부를 결정 가능
- AI 데이터 수집을 원하지 않는 경우 설정에서 o1 모델을 기본 추론 모델로 변경 가능

딥시크 R1 vs ChatGPT o3-mini 추론 검색 비교
검색은 아무거나 보이는 걸로 했으며, 같은 질문을 했을 때 답변 언어, 추론 과정, 답변 속도 등이 차이가 났습니다.
딥시크 R1 | o3-mini | |
예시-1 | ||
- 답변 속도 | 빠름 | 느림 |
- 답변 언어 | 한국어 | 영어 |
- 가독성 | 좋음 | 나쁨 |
예시-2 | ||
- 답변 속도 | 빠름 | 느림 |
- 답변 언어 | 한국어 | 영어 |
- 가독성 | 좋음 | 나쁨 |
예시-3 | ||
- 답변 속도 | 빠름 | 빠름 |
- 답변 언어 | 한국어 | 한국어 |
- 가독성 |
좋음 | 좋음 |
확실히 추론 부분에 있어서 R1이 o3-mini보다 정교하게 추론하는 걸 볼 수 있어서 좋았습니다.
또한, 통계나 글의 구조도 잘 만들어 주어 가독성도 좋았습니다.
(해외 퍼플렉시티 사용하는 사람들은 o3의 보다 R1이 통계치를 잘 활용하여, 객관적으로 글을 작성한다는 평도 많았습니다. )
저는 개인적으로 R1의 검색 결과가 더 마음에 듭니다.
예시 1~3까지 모두 한국어로 질문하였으며, 예시 1, 2에서 o3-mini는 영어로 답변하였습니다.
딥시크 R1 검색 결과 - 1

o3 mini 검색 결과 - 1

딥시크 R1 검색 결과 - 2

o3 mini 검색 결과 - 2

딥시크 R1 검색 결과 - 3

o3 mini 검색 결과 - 3
