구글, 고급 추론 모델 '제미니 2.0 플래시 싱킹' 출시
구글이 오픈AI의 고급 추론 모델 'o1-프로'에 대응하기 위해 새로운 AI 추론 전문 모델 '제미니 2.0 플래시 싱킹(Gemini 2.0 Flash Thinking)'을 출시했습니다. 이번 출시로 구글은 AI 기술 경쟁에서 한층 더 주도권을 잡을 수 있을 것으로 기대되고 있습니다. 특히 베타 테스트 기간 동안 모델을 무료로 제공하며, 개발자와 기업의 큰 관심을 받고 있습니다.
![]() |
구글, 고급 추론 모델 '제미니 2.0 플래시 싱킹' 출시 |
베타 기간 중 무료 제공
데미스 허사비스 구글 딥마인드 CEO는 1월 22일(현지시간) X(트위터)를 통해 이 모델의 출시를 발표했습니다. 특히, 오픈AI의 o1-프로 모델의 월 $200 요금제를 부담스럽게 여기는 사용자들을 겨냥해, 베타 테스트 기간 동안 제미니 2.0 플래시 싱킹을 무료로 제공한다는 파격적인 혜택을 내세웠습니다.
지난달 19일 일부 개발자들에게 데모와 API 형태로 공개된 이 모델은 이제 구글 계정을 보유한 누구나 Google AI Studio를 통해 사용할 수 있습니다.
주요 특징과 성능
1. 입력 및 출력 용량
입력 토큰: 최대 32,000개 (약 50~60페이지 분량의 텍스트)
출력 토큰: 응답당 최대 8,000개 생성
텍스트 처리 능력: 최대 100만 개의 토큰을 처리 가능 (오픈AI o1-프로 모델보다 5배 더 많은 용량)
이 모델은 이전 제미니 모델보다 컨텍스트 창이 줄어들었지만, 압도적인 처리 용량과 빠른 응답 속도를 제공합니다.
2. 투명한 작업 과정
기존 '블랙박스' AI와 달리, 작업 과정을 시각적으로 투명하게 보여줌으로써 사용자가 결과를 쉽게 이해하고 검증할 수 있습니다.
코드 실행 기능 기본 제공: 개발자들이 시스템 내에서 코드를 실행하고 테스트할 수 있어 모델의 사고 과정과 최종 답변 간의 모순을 줄일 수 있습니다.
3. 벤치마크 성능
챗봇 아레나 리더보드: 주요 AI 벤치마크에서 1위를 기록
시험 및 벤치마크 점수:
미국 초청 수학 시험(AIME): 73.3%
GPQA 다이아몬드 과학 벤치마크: 74.2%
오픈AI의 최신 o3 모델이 GPQA에서 87.7%를 기록한 것에는 미치지 못했지만, 복잡한 프롬프트 처리, 코딩, 창의적 글쓰기 등 다양한 분야에서 높은 성과를 보였습니다.
제미니 2.0 플래시 싱킹의 장점
무료 베타 테스트: 누구나 제한 없이 AI 기술을 체험할 기회 제공
고속 처리 능력: 경쟁 모델 대비 최대 5배의 처리 용량
투명성: 작업 과정의 시각화로 결과 검증 가능
코드 실행 및 테스트 기능: 개발자 친화적인 환경 제공
사용 방법
제미니 2.0 플래시 싱킹은 구글 계정만 있으면 Google AI Studio를 통해 무료로 사용할 수 있습니다. 개발자와 기업들은 API와 함께 제공되는 문서를 참고해, 모델을 쉽게 통합하고 실험할 수 있습니다.
미래 전망
구글의 제미니 2.0 플래시 싱킹은 AI 추론 모델의 새로운 기준을 제시하며, 특히 투명성과 사용성을 중점으로 개발되었습니다. 앞으로 추가적인 기능과 성능 개선이 이루어진다면, AI 시장에서의 구글의 입지는 더욱 강화될 것으로 보입니다.
여러분은 이번 모델 출시가 AI 시장에 어떤 변화를 가져올 것이라고 생각하시나요? 댓글로 의견을 남겨주세요!
댓글 쓰기