본문 바로가기
오늘의 경제

GPT-4 공개, 텍스트와 이미지까지 이해 가능 chat-gpt 플러스 고객 먼저 사용

by 김선생1 2023. 3. 15.
반응형

GPT-4 공개, 텍스트와 이미지까지 이해 가능 chat-gpt 플러스 고객 먼저 사용

챗gpt-4

GPT-4 소개: AI 기능의 새로운 시대

OpenAI는 최근 GPT-4로 알려진 초대형 인공 지능(AI) 모델인 최신 걸작을 발표했습니다. 멀티모달의 경이로움인 GPT-4는 텍스트와 이미지를 모두 이해하여 이전보다 더 창의적이고 정확하며 편견 없는 출력을 제공함으로써 이전 제품을 능가합니다.

 

다중 모드 기능: 텍스트와 이미지 연결

OpenAI CEO인 Sam Altman은 GPT-4의 멀티모달 기능의 힘을 강조하여 이전 반복보다 더 넓은 범위의 프롬프트를 이해할 수 있도록 합니다. 이 혁신적인 기능은 더 창의적이고 다양한 결과로 이어집니다.

예를 들어, GPT-4는 곰팡이 핀 피자 이미지에 대한 사용자의 질문을 정확하게 해석하고 "곰팡이 있는 피자는 건강에 좋지 않습니다."와 같이 인간과 유사한 관련 답변으로 응답할 수 있습니다. 이 고급 이해는 GPT-4가 단순한 텍스트 또는 이미지 이해를 초월하여 다중 모달 기능을 사용하여 다양한 창의적 작업에서 탁월함을 보여줍니다.

 

향상된 정확도 및 윤리적 개선

OpenAI는 GPT-3.5를 괴롭히는 몇 가지 문제를 해결하여 GPT-4를 크게 향상시켰습니다. 인터넷에서 수집된 데이터로부터 학습함으로써 AI는 이제 의학과 같은 분야의 전문적인 질문에 29% 더 정확한 답변을 제공할 수 있습니다. 또한 비윤리적인 질문에 답할 가능성이 82% 감소했습니다.

이러한 개선 사항은 주목할 만하지만 OpenAI는 모든 잠재적인 약점을 제거하기 위해 아직 수행해야 할 작업이 있음을 인정합니다.

 

큰 텍스트 처리: 더 나은 컨텍스트 이해

GPT-4는 광범위한 텍스트를 처리할 때 이전 제품보다 성능이 뛰어납니다. 한 번에 20,000개 이상의 영어 단어를 기억하고 이해할 수 있는 능력을 갖춘 GPT-4는 문맥을 그 어느 때보다 잘 이해할 수 있습니다. 이 방대한 메모리 용량은 5장 이상의 A4 페이지와 동일하며 놀라운 상황 인식을 보여줍니다.

 

GPT-4: ChatGPT Plus 사용자를 위한 최초 액세스

OpenAI는 처음에 ChatGPT Plus 사용자에게 획기적인 GPT-4를 출시할 예정입니다. 월 20달러의 요금으로 사용자는 이 새롭고 향상된 버전의 AI 모델에 액세스할 수 있습니다. 개발자는 추가 통합을 위해 API를 받기 위해 대기자 명단에 가입할 수도 있습니다.

Microsoft는 공식 블로그에서 GPT-4의 출시를 축하하며 AI 모델이 Bing 검색 엔진에 통합되어 그 영향과 잠재적 응용 프로그램을 더욱 확장할 것이라고 발표했습니다.

댓글