본문 바로가기

OpenAI GPT-4o 발표 영상 요약 - 주요 기능과 개선 사항

hyunicecream 2024. 5. 14.

오늘 새벽에 OpenAI에서 유튜브 라이브데모를 통해 ChatGPT의 새로운 플로그십 모델인 GPT4o 모델에 대해 발표를 하였습니다. 🎉 희소식은 GPT-4o를 무료 회원도 유료회원과 동일하게 사용할 수 있다고 합니다.🎉 이번 버전은 사용자 경험을 개선하고 무료로 제공되는 새로운 기능이 도입되고 있다고 하는데, 한 번 알아보도록 하겠습니다. (특히 멀티모달이 기술이 대박입니다.)
그리고 GPT4o모델을 지금 사용할 수 있으니깐 사용해보세요~!

기존의 한계를 돌파한 GPT-4o 모델 (급하신 분들을 위한...)

GPT-4o모델의 경우 GPT-4 Turbo 모델의 업그레이드 버전이라고 생각하시면 쉽습니다.

👏 무료 회원분들도 GPT4o를 무료로 사용할 수 있고, 추가적으로! GPT Store, Vision, Browse, Memory, Data Analysis를 무료로 사용할 수 있게 한다고 합니다(기존에 유료회원에게만 제공). 이건 정말 무료회원에게 희소식입니다. 👏

GPT-4o free access 리스트
GPT-4o free access 리스트

속도 : GPT-4 Turbo보다도 더 빠른 속도를 자랑합니다. 실시간 음성, 텍스트, 시각 처리에서 뛰어난 응답성을 제공합니다. 

특히 멀티모달 기술은 대박이라는 말밖에는 안 나옵니다. (영상 안보신분은 맨 아래 유튜브 링크를 통해 한번 보시는 걸 추천드립니다.)

다중 모드 : GPT-4o는 텍스트, 음성, 시각 정보를 모두 통합하여 처리할 수 있는 능력을 가지고 있습니다. 이로 인해 다양한 입력 소스에서 응답속도가 크게 개선되었습니다. (GPT4o를 사용해본 결과 확실히 응답속도가 더 빨랐습니다. 체감이 많이 됩니다.) 

지금 ChatGPT에서 GPT-4o를 사용하실 수 있습니다. 왼쪽상단에서 모델을 GPT-4o를 선택하시면 됩니다. 

GPT-4o 사용 화면
GPT-4o 사용 화면

지금부터는 유튜브에서 발표한 내용을 토대로 자세하게 정보를 전달드릴게요.

제품의 중요성 및 접근성
OpenAI는 모든 사용자에게 제품을 편리하게 제공하는 것의 중요성을 강조했습니다. 사용자들이 어디서나 쉽게 ChatGPT를 사용할 수 있도록 모든 장벽을 줄이는 것이 목표입니다. 이번 발표에서 ChatGPT의 데스크탑 버전이 출시되었으며, 사용자 경험을 더욱 간단하고 자연스럽게 만드는 데 중점을 두고 있습니다. 데스크탑 버전의 출시는 사용자가 모바일 기기나 웹 브라우저에 의존하지 않고도 ChatGPT를 사용할 수 있게 함으로써, 접근성을 크게 향상시킵니다.

1. GPT-4o 모델의 공개

Introducing GPT-4o : 유튜브 캡처 화면
Introducing GPT-4o : 유튜브 캡처 화면

이번 발표의 핵심은 새로운 플래그십 모델인 GPT-4o의 공개입니다. GPT-4o는 GPT-4의 모든 이용자(무료 사용자까지 포함)에게 제공합니다. 더불어 기존의 GPT-4 Turbo 모델보다 더욱 빠르고 효율적인 성능을 자랑합니다. GPT4o모델의 모든 기능을 선보이기 위한 실시간 데모도 준비 중이며, 몇 주 안에 순차적으로 공개된다고 합니다.  

1.1 GPT-4o의 주요 특징

1.1.1 사용자 인터페이스(UI) 개선

GPT-4o는 사용자 인터페이스(UI)를 새롭게 단장하여 더 직관적이고 사용자 친화적으로 만들었습니다. 모델의 복잡성이 증가했음에도 불구하고, 상호작용 경험을 더 자연스럽고 간단하게 만드는 데 중점을 두었습니다. 새로운 UI는 사용자가 ChatGPT와의 상호작용에 집중할 수 있도록 설계되었으며, 이를 통해 사용자들이 더욱 몰입할 수 있는 환경을 제공한다고 합니다. 

1.1.2 성능 향상

GPT-4o는 이전 모델보다 훨씬 빠른 응답 속도와 효율적인 처리 능력을 제공합니다. 사용자는 더욱 원활하게 ChatGPT를 사용할 수 있으며, 일상 업무에 쉽게 통합할 수 있습니다. 속도와 효율성의 향상은 특히 실시간 응답이 중요한 작업에서 큰 이점을 제공합니다.

1.1.3 다중 모드 기능

GPT-4o는 음성, 텍스트, 시각 등 여러 모드를 통합하여 원활한 상호작용을 제공합니다. 라이브 데모에서는 실시간 대화형 음성 능력을 포함하여 감정 인식 및 동적 음성 생성 기능을 선보였습니다. 또한, 시각적 콘텐츠와 상호작용하는 능력도 보여주었습니다. 예를 들어, 사용자는 손글씨로 작성된 수학 문제를 업로드하고, GPT-4o가 이를 인식하고 해결하는 과정을 실시간으로 볼 수 있습니다.

1.1.4 실시간 번역 및 감정 인식

새로운 모델은 실시간 번역을 지원하며, 시각적 입력을 기반으로 감정을 인식할 수 있습니다. 이를 통해 사용자와 AI 간의 상호작용의 깊이와 품질을 크게 향상시킬 수 있습니다. 예를 들어, 사용자가 영어로 말하면 GPT-4o가 이를 즉시 이탈리아어로 번역하고, 반대로 이탈리아어로 입력된 내용을 영어로 번역할 수 있습니다.

1.1.5 GPT-4o의 주요 업그레이드

음성 모드 개선
기존에는 음성 모드에서 속기(transcription), 인텔리전스(intelligence), 텍스트 음성 변환(text to speech) 모델이 협력하여 경험을 제공했으나, 지연(latency)이 발생해 사용자의 몰입을 방해했습니다. 그러나 GPT-4o에서는 이 모든 과정이 본연적으로 일어나며, 음성, 텍스트, 시각 등 여러 영역에서의 이유(reasoning)를 아우릅니다. 이를 통해 더욱 자연스럽고 실시간에 가까운 상호작용이 가능해졌습니다. 예를 들어, 사용자가 말하는 도중에 모델이 즉각적으로 반응하여 대화를 중단시키지 않고 자연스럽게 이어갈 수 있습니다.

1.1.6 모든 사용자에게 제공

GPT-4o는 모든 ChatGPT 사용자에게 제공되며, 무료 사용자도 포함됩니다. AI를 더 넓은 사용자에게 제공하는 중요한 진전을 의미합니다. 또한, 개발자들은 API를 통해 GPT-4o를 활용하여 놀라운 AI 애플리케이션을 만들고 대규모로 배포할 수 있습니다. 이로써 개발자들은 GPT-4o의 기능을 다양한 프로젝트에 적용할 수 있게 되었습니다.

2. 실시간 데모 시연 영상

2.1 실시간 데모에서 드러난 GPT-4o의 능력

실시간 대화형 능력

Introducing GPT-4o : 실시간 대화
Introducing GPT-4o : 실시간 대화

라이브 데모에서 GPT-4o는 실시간 대화를 통해 자연스럽게 반응하며 감정적 신호를 포착하는 능력을 보여주었습니다. 그전에 GPT4모델을 사용할 때는 문장을 하나씩 주고받았지만, 이제 실시간으로 대화를 하는 도중에 끼어들면서 말할 수 있는 것을 보여주었습니다. 영상에서 실제로 대화하는 것을 보면, AI가 감정을 가지고 있는 듯한 느낌이 들었습니다. 사용자가 발표 중 긴장을 느낄 때 심호흡을 권하는 등 지원과 조언을 제공하는 방식으로 시연되었습니다. 

문제 해결 능력

Introducing GPT-4o : 수학 문제 풀이 도와주기
Introducing GPT-4o : 수학 문제 풀이 도와주기

GPT-4o는 선형 방정식 풀기 과정을 단계별로 안내하며, 사용자가 문제를 해결할 수 있도록 힌트를 제공했습니다. 모델이 교육적 도구로서의 잠재력을 보여주는 사례입니다. 예를 들어, 학생들이 수학 문제를 풀 때 GPT-4o가 실시간으로 도움을 줄 수 있습니다.

코드 해석 및 시각화

Introducing GPT-4o : 코드 해석 및 그래프 해석
Introducing GPT-4o : 그래프 해석

AI는 코드 스니펫을 해석하고 이에 대한 통찰을 제공하여 개발자들에게 유용한 도구로서의 역할을 했습니다. 코드의 기능을 설명하고 데이터를 시각화하는 데 도움을 주는 방식으로 시연되었습니다. 예를 들어, 사용자가 복잡한 데이터 분석 코드를 업로드하면 GPT-4o가 이를 분석하고 시각적으로 표현해 줄 수 있습니다. 

😱 개인적으로 이 부분이 좀 충격이었습니다. 실시간으로 화면을 공유해서, 코드에 대해 해석을 해주고, 이 부분이 이렇다 저렇다를 얘기해 주고, 그 결과를 시각화로 나타냈을 때 해석해 줍니다. 중간에 기온이 제일 높은 달이 언제냐고 물어보니, 해석하여 대답해 줍니다. 😱

실시간 번역 능력

Introducing GPT-4o : 영어-이탈리아어 통역
Introducing GPT-4o : 영어-이탈리아어 통역

GPT-4o는 영어와 이탈리아어 간의 대화를 실시간으로 번역하는 능력을 보여주며, 다국어 지원 도구로서의 잠재력을 입증했습니다. 이 기능은 글로벌 커뮤니케이션을 개선하는 데 큰 도움이 될 수 있습니다. 갤럭시 S24에서 보여주었던 실시간 번역과 동일합니다. 

감정 인식 능력

Introducing GPT-4o : 셀프 카메라 화면으로 감정 분석
Introducing GPT-4o : 셀프 카메라 화면으로 감정 분석

셀카를 분석하여 사용자의 감정 상태를 정확히 인식하는 기능을 시연하며, 고급 시각 인식 능력을 선보였습니다. 예를 들어, 사용자들이 자신이 느끼는 감정을 정확히 표현하지 못할 때 GPT-4o가 이를 대신 인식하여 적절한 조언이나 반응을 제공할 수 있습니다.

이것도 정말.. 말이 안 되는.. 실시간 카메라로 자신의 얼굴을 보여주고, 감정이 어떤지 그리고 농담까지 하는 모습을 보였는데, 기술발전이 정말 빠르다고 느꼈습니다. 

결론

GPT-4o는 OpenAI와 대화형 AI 분야에서 큰 도약을 의미합니다. 고급 기능을 모든 사용자에게 제공하고 전반적인 사용자 경험을 향상시키면서, OpenAI는 인간과 AI 간의 상호작용의 새로운 시대를 열고 있습니다. 개발자, 교육자, 일반 사용자 모두 GPT-4o를 통해 더 많은 성과를 이룰 수 있을 것입니다. 몇 주후에 공식적으로 발표한다고 합니다. 

개인적인 생각 

개인적으로 기술 속도가 너무 빨라서 놀랐습니다.. 이제 GPT를 어떻게 잘 활용하는 기업과 사람이 살아남을 것 같네요. 실시간으로 대화를 주고받으며, 그 사람이 느끼고 있는 감정에 대해 파악하고 말한다는 게... 이게 현실이 되었네요. 또한 이미지를 통해 해석하고 의견을 내놓는 것도...ㅎㅎ  특히 멀티모달 기술은 혁신 그 자체인 듯합니다. 아마 더욱더 기술이 가속화되어 더 빠르게 그리고 더 발전해서 나올 것 같습니다. 

자세한 기능과 라이브 데모를 보고 싶다면 여기에서 전체 발표 영상을 시청할 수 있습니다.

Youtube : https://www.youtube.com/watch?v=DQacCB9tDaw&t=2s

무료 사용자를 위한 가이드 라인을 보고 싶다면 다음 글을 참고 해보세요.

 

GPT-4o 가이드 라인 - 메시지 제한 개수(유료, 무료 사용자), 새로 추가된 무료 사용자를 위한 기능

2024년 5월 14일 새벽에 OpenAI에서 GPT-4o를 발표했습니다. GPT-4o의 "o"는 "omni" 한국말로 다재다능을 의미합니다.이번 글에서는 GPT-4o와 GPT-4의 차이점(학습 날짜, 속도, 가격), GPT-4o 사용 가능한 날짜,

hyunicecream.tistory.com

ChatGPT GPT-4o PDF 파일 업로드 활용 및 답변 신뢰도 테스트 결과에 대해 궁금하신 분들은 다음 글을 참고 해보세요.

 

ChatGPT GPT-4o 사용 방법 - 파일 업로드 PDF 파일 (답변 신뢰도 테스트)

이번 글에서는 ChatGPT GPT-4를 사용하여 파일을 업로드하고 분석하는 방법에 대해 소개하겠습니다. 특히 PDF 파일을 어떻게 업로드하고, ChatGPT를 통해 정확한 정보를 얻는지에 대해 확인해 보겠습

hyunicecream.tistory.com

ChatGPT GPT-4o 데이터 분석 및 시각화 기능에 대해 궁금하신 분들은 다음 글을 참고해보세요.

 

ChatGPT GPT-4o 데이터 분석 및 시각화 - 엑셀 데이터 활용

Excel(엑셀)은 직장인의 필수 프로그램 중 하나입니다. 많은 업무에서 엑셀 함수를 사용해야 하는데, 이를 인터넷에 검색하고 결과를 찾는 대신 이제 ChatGPT를 통해 쉽고 간단하게 할 수 있는 방법

hyunicecream.tistory.com

 

댓글