생성형 인공지능(AI)가 예상보다 훨씬 빠른 속도로 성장하고 있다. 생성형 인공지능(AI)인 '챗GPT'를 내놨던 오픈AI는 1년만에 사람처럼 보고 듣고 말하는 AI까지 내놨다.
오픈AI는 지난 13일(현지시간) 텍스트와 이미지를 이해하고 생성하는 것에서 한걸음 나아가, 자연스럽게 실시간 대화도 가능하고 영상을 보면서 직접 말할 수 있는 'GPT-4o'를 공개했다. 이에 질세라, 구글도 지난 14일(현지시간) 동영상, 이미지, 오디오 등을 인식하는 '멀티모달' 능력을 강화한 새로운 AI 비서 '프로젝트 아스트라'를 공개했다.
'GPT-4o'를 탑재한 오픈AI의 챗GPT는 사람의 음성에 즉각 반응하고, 농담을 던지거나 상대방의 감정을 읽어내기까지 한다. 또 카메라를 통해 보이는 이미지를 인식해 수학 문제를 풀어주거나 이용자의 표정도 인식한다. 오픈AI는 "GPT-4o는 사람의 대화 응답 시간과 비슷한 평균 0.32초 내에 질문에 답변하고 '감정'을 담은 것처럼 자연스러운 대화가 가능하다"고 설명했다.
실제로 시연자가 "잠을 잘 못자는 친구를 위해 이야기를 들려달라"고 요구하자 GPT-4o는 마치 할머니가 손자에게 동화를 읽어주듯 이야기를 시작했다. 보다 감정적으로 이야기해 달라 요구하니 마치 성우처럼 극적이고 감정을 섞은 목소리로 대화를 이어나갔다.
오픈AI는 'GPT-4o' 모델이 지난해 11월 선보였던 'GPT-4 터보'보다 두배 더 빠르고 비용은 절반 수준이라고 설명했다. 이에 더해 한국어 등 50개 언어에 대한 품질과 속도도 향상됐으며 개발자들이 새 모델을 사용해 애플리케이션(앱)을 구축할 수 있도록 오픈AI의 API를 통해 이용할 수 있다고 덧붙였다.
구글의 '프로젝트 아스트라'는 구글의 자체 거대언어모델(LLM) '제미나이'와 구글의 음성모델을 기반으로 제작된 AI 비서다. GPT-4o와 마찬가지로 사람처럼 대화하거나 이미지를 인식할 수 있다. 또 구글 지메일과 문서, 캘린더 등 구글 앱에서 개인정보를 가져와 이용자의 계획을 짜주고 일정을 알려준다.
시연 영상에서는 휴대폰 카메라로 주변을 비추면서 '안경이 어디에 있는지 기억해?'라고 묻자 '아까 테이블에 있는 사과 옆에 있었다'고 답하는 모습을 보였다. 또 '인터넷에서 구매한 신발을 환불하고 싶다'고 요청하자 이메일에서 영수증과 주문번호를 찾아 반품신청과 택배예약까지 척척 알아서 해준다.
구글은 '프로젝트 아스트라'의 중간단계로 '제미나이 라이브'를 앞으로 수개월 내에 공개하겠다고 밝혔다. '제미나이 라이브'에도 음성인식 기능이 탑재돼 있어 사람처럼 대화할 수 있지만, 이미지는 실시간 촬영이 아닌 직접 업로드를 통해 인식시켜야 한다.
고작 1년 만에 AI가 직접 듣고 보는 수준까지 발전했음에도 개발자들은 아직 이를 '초기단계'라고 부르고 있다. 순다르 피차이 구글 최고경영자(CEO)는 15일 기자간담회에서 "AI의 획기적인 발전은 하루 아침에 나타나지 않는다"며 "AI는 아직 초기 단계이며, AI 시대 변곡점에 대해 생각할 때 (AI 경쟁은) 큰 그림에서 봐야 한다"고 말했다.
그러면서도 "모든 기술은 긍정적인 면과 부정적인 면이 모두 존재한다"며 "이에 책임감 있게 접근해야 하고, 발전을 이루면서 동시에 악영향을 최소화하기 위한 보호 장치를 마련하는 것이 중요하다"고 강조했다.
한편, 구글은 '제미나이'를 탑재한 검색 엔진을 출시하고 구글 맵·사진·워크스페이스 등 모든 사업 부문에 AI를 접목해 획기적인 변화를 시도했다. 특히, AI의 발달로 사람이 직접 검색 엔진을 이용하는 일이 줄어들 것을 대비해 보다 편리하면서 똑똑한 AI 검색 기능을 내세웠다.
Copyright @ NEWSTREE All rights reserved.