https://io.google/2025/explore/google-keynote-1
Google I/O ’25 기조연설에서는 AI, 특히 Gemini 모델을 중심으로 한 Google의 최신 발전 사항과 제품 혁신이 다수 발표되었습니다. 이번 발표는 AI 플랫폼 전환의 새로운 단계에서 수십 년간의 연구가 현실화되고 있음을 보여주었습니다.
Podcast
Gemini 모델 및 AI 인프라 발전
- Google은 Gemini 시대에 접어들어 이전보다 훨씬 빠르게 모델을 출시하고 있습니다. 지난 I/O 이후 10개 이상의 모델과 연구 성과가 발표되었고, 20개 이상의 주요 AI 제품 및 기능이 출시되었습니다.
- 모델 발전은 ELO 점수로 측정되며, Gemini Pro의 첫 세대 이후 300점 이상 향상되었습니다.
- Gemini 2.5 Pro는 LaMarina 리더보드에서 모든 카테고리를 휩쓸며 많은 벤치마크에서 최첨단(state-of-the-art) 모델로 평가받고 있습니다.
- 코딩 분야에서도 빠르게 발전하여, 업데이트된 2.5 Pro는 WebDev Arena에서 1위를 차지했으며 이전 버전보다 142 ELO 포인트 향상되었습니다. 선도적인 AI 코드 에디터인 Cursor에서는 올해 가장 빠르게 성장하는 모델로 매분 수십만 라인의 코드를 생성하고 있습니다.
- 최근에는 Gemini가 Pokemon Blue 게임을 완료하는 성과를 거두었습니다. 이는 인공 포켓몬 지능(API, artificial Pokemon intelligence) 달성에 한 걸음 더 다가섰음을 의미합니다.
- 이러한 발전은 Google의 세계 최고 수준 인프라에 의해 가능하며, AI에 대한 완전 스택 접근 방식의 기반입니다. 7세대 TPU Ironwood는 대규모 추론을 지원하는 최초의 설계로 이전 세대 대비 10배의 성능을 제공하며, 파트당 42.5 엑사플롭스의 컴퓨팅 성능을 갖습니다. TPU까지의 인프라 강점은 모델을 훨씬 빠르게 제공하는 데 도움이 됩니다. LaMarina 리더보드의 상위 모델 중 Gemini는 가장 높은 출력 토큰 생성 속도로 상위 3개 자리를 차지하고 있으며, 모델 가격은 크게 인하되고 있습니다.
- Google은 가격과 성능 사이의 어려운 절충점에도 불구하고 가장 효과적인 가격으로 최고의 모델을 제공해왔습니다.
- LearnM 모델 제품군이 통합되면서 2.5 Pro는 학습 분야에서도 선도적인 모델이 되었습니다.
- Gemini Flash는 Google의 가장 효율적인 작업 모델이며, 속도와 저렴한 비용으로 개발자들에게 인기가 많습니다. 업데이트된 2.5 Flash가 출시되었으며, 추론, 코드, 긴 컨텍스트 등 주요 벤치마크에서 향상되었습니다. Flash는 LM Arena 리더보드에서 2.5 Pro 다음으로 2위를 차지했습니다. Flash는 6월 초에 정식 출시될 예정이며, Pro는 그 뒤를 이을 것입니다.
- 새로운 연구 모델인 Gemini Diffusion은 확산(diffusion) 기술을 텍스트에 적용하여 편집 작업(수학, 코드 포함)에 탁월한 성능을 보입니다. 왼쪽에서 오른쪽으로만 생성하는 것이 아니라 솔루션을 빠르게 반복하고 생성 과정에서 오류를 수정할 수 있습니다. Gemini diffusion은 이전 모델보다 5배 빠르게 생성하면서도 코딩 성능은 유지하는 최첨단 실험 모델입니다. 이 모델은 현재 소수의 테스터와 함께 테스트 중입니다.
- Gemini 2.5 Pro에는 모델 성능을 극한으로 끌어올리는 새로운 모드인 Deep Think가 도입되었습니다. Deep Think는 최신 연구를 활용하며, 수학 벤치마크인 USA Mo 2025 및 코딩 벤치마크인 Live Codebench에서 뛰어난 성능을 보입니다. Deep Think는 Frontier 안전성 평가 및 전문가 의견 수렴을 거쳐 신뢰할 수 있는 테스터에게 Gemini API를 통해 먼저 제공될 예정입니다.
AI 제품 및 기능 혁신
AI 채택은 Google 제품 전반에서 증가하고 있습니다. Gemini 앱은 현재 월간 활성 사용자 4억 명 이상을 보유하고 있으며, 특히 2.5 모델에서 높은 성장세와 참여도를 보입니다.
- AI 개요(AI overviews)는 현재 월간 사용자 15억 명 이상을 보유하며, Google 검색이 생성형 AI를 세계에서 가장 많은 사람들에게 제공하고 있음을 보여줍니다. AI 개요는 사용자 만족도와 검색 빈도를 높이고 있으며, 주요 시장에서는 AI 개요를 표시하는 쿼리 유형에서 10% 이상의 성장을 주도하고 있습니다. 이는 지난 10년간 검색에서 가장 성공적인 출시 중 하나입니다.
- AI 개요와 함께 **AI 모드(AI mode)**는 검색의 다음 큰 단계입니다. AI 모드는 검색을 완전히 새롭게 재구상한 것으로, Gemini 2.5를 핵심으로 합니다. 더 고급 추론 기능을 통해 이전 검색보다 2~3배 긴 복잡한 쿼리를 처리할 수 있으며, 후속 질문도 가능합니다. AI 모드는 미국 사용자에게 오늘부터 출시됩니다. AI 모드에는 Google의 최첨단 AI 기능과 기능이 모두 탑재되며, 시간이 지남에 따라 AI 모드의 많은 기능들이 핵심 검색 경험으로 통합될 예정입니다.
- AI 모드에서는 쿼리 팬아웃(query fanout) 기술을 사용하여 복잡한 질문을 여러 하위 주제로 나누고 동시에 수많은 쿼리를 발행하여 웹 전체를 깊이 검색합니다. 실시간 정보 데이터 세트(지식 그래프, 쇼핑 그래프, 지역 데이터 등)를 활용하여 응답을 취합하고 정보 품질을 확인합니다.
- 개인 컨텍스트(personal context) 기능을 통해 사용자의 과거 검색 기록이나 Google 앱(Gmail 등)의 관련 컨텍스트를 활용하여 개인화된 제안을 제공합니다. 이 기능은 선택 사항이며, 사용자가 완전히 제어할 수 있습니다. 개인 컨텍스트는 이번 여름부터 AI 모드에서 Labs 기능으로 제공될 예정입니다.
- 심층 연구(deep research) 기능은 쿼리 팬아웃 기술을 확장하여 수십 또는 수백 개의 검색을 수행하고 전문가 수준의 완벽하게 인용된 보고서를 몇 분 안에 생성합니다.
- 복잡한 분석 및 데이터 시각화 기능은 스포츠 및 금융 질문에 대해 이번 여름부터 제공될 예정입니다. 검색은 질문에 따라 적절한 UI(예: 표, 그래프)를 동적으로 생성합니다.
- 에이전트(agentic) 기능은 Project Mariner의 기능을 AI 모드에 통합하여 티켓 구매, 레스토랑 예약, 지역 서비스 예약 등 작업을 사용자를 대신하여 수행할 수 있게 합니다.
- Search Live는 Project Astra의 실시간 기능(라이브 멀티모달리티)을 AI 모드에 통합하여, 사용자의 카메라를 통해 보이는 것을 이해하고 실시간으로 대화하며 도움을 제공할 수 있게 합니다.
- 쇼핑 기능은 Google 이미지의 시각적 영감과 쇼핑 그래프의 500억 개 이상의 제품 목록을 활용하여 쇼핑에 도움을 줍니다. 사용자의 선호도 및 기준에 따라 개인화된 이미지 모자이크를 생성하고 적합한 제품을 추천합니다.
- 새로운 가상 착용(try on) 기능은 사용자의 사진을 사용하여 AI 모델이 의류가 어떻게 보일지 예측하여 보여줍니다. 이 기술은 패션을 위해 특별히 훈련된 커스텀 이미지 생성 모델을 사용하며, 다양한 사람들에게 수십억 개의 의류 제품이 어떻게 보일지 시각화할 수 있습니다.
- 에이전트 체크아웃(agentic checkout) 기능은 가격 추적 설정 후, 가격이 하락하면 사용자에게 알리고 한 번의 탭으로 Google Pay를 통해 구매를 완료할 수 있게 합니다.
- Project Starline의 3D 비디오 기술 연구는 새로운 AI 기반 영상 통신 플랫폼인 Google Beam으로 발전했습니다. Beam은 AI 모델을 사용하여 2D 비디오 스트림을 사실적인 3D 경험으로 변환하며, HP와 협력하여 올해 말 얼리 고객에게 첫 기기를 제공할 예정입니다. Starline의 기술은 Google Meet에도 통합되어 실시간 음성 번역 기능을 제공하고 있으며, 현재 영어와 스페인어 번역이 구독자에게 제공되고 더 많은 언어가 출시될 예정입니다. 기업용 실시간 번역 기능도 올해 말 출시될 예정입니다.
- Project Astra는 주변 세계를 이해할 수 있는 범용 AI 비서의 미래 능력을 탐구하는 연구 프로젝트입니다.
- Gemini Live는 Project Astra의 카메라 및 화면 공유 기능을 통합하여 사용자가 보는 것에 대해 대화할 수 있도록 합니다. Gemini Live는 현재 Android 및 iOS 앱에서 무료로 제공되며, 향후 캘린더, 지도, Keep, Tasks 등 다른 앱과 연결될 수 있게 될 것입니다. Gemini Live의 로드맵은 Project Astra에서 프로토타이핑된 아이디어로 가득하며, 이는 Android 생태계 전반에 걸쳐 적용될 예정입니다.
- Project Mariner는 웹과 상호작용하고 작업을 수행할 수 있는 에이전트입니다. 멀티태스킹(최대 10개 작업 동시 수행) 및 학습 및 반복(teach and repeat) 기능이 추가되었습니다. Project Mariner의 컴퓨터 사용 기능은 올해 여름부터 Gemini API를 통해 개발자에게 제공될 예정입니다. 에이전트가 서로 대화할 수 있도록 하는 개방형 **에이전트 간 프로토콜(open agent-to-agent protocol)**과 다른 서비스에 접근할 수 있도록 하는 **모델 컨텍스트 프로토콜(MCP)**이 논의되었습니다. Gemini SDK는 이제 MCP 도구와 호환됩니다.
- 개인 컨텍스트는 Gemini 모델이 사용자의 허가를 받아 Google 앱 전반의 관련 컨텍스트를 사용하여 개인화된 응답을 제공하는 기능입니다. Gmail의 맞춤형 스마트 답장 기능 예시가 소개되었습니다. 이 기능은 이번 여름 Gmail 구독자에게 제공될 예정입니다. 개인 컨텍스트는 검색, Gemini 앱 등에서 유용하게 활용될 것입니다. Gemini 앱에서는 검색 기록 외에 더 많은 Google 앱의 개인 컨텍스트를 추가할 수 있게 될 예정입니다.
- Gemini 앱의 새로운 기능:
- Deep Research 기능이 업데이트되어 사용자가 자신의 파일을 업로드하여 연구를 안내할 수 있으며, 곧 Google Drive 및 Gmail에서도 연구할 수 있게 될 것입니다.
- Canvas는 Gemini의 대화형 공동 작업 공간으로, 보고서를 동적 웹 페이지, 인포그래픽, 퀴즈, 맞춤형 팟캐스트 등 다양한 형태로 변환할 수 있습니다. 사용자는 Canvas에서 Gemini와 협력하여 코드를 작성하고 앱을 만들 수도 있습니다.
- Gemini in Chrome은 데스크톱에서 웹을 탐색할 때 페이지의 컨텍스트를 이해하고 도움을 주는 AI 비서입니다. 이 기능은 이번 주부터 미국 Gemini 구독자에게 출시될 예정입니다.
- 최신 이미지 생성 모델인 Imagine 4가 Gemini 앱에 도입되었습니다. Imagine 4는 더 풍부하고 섬세한 이미지, 향상된 텍스트 및 타이포그래피 처리 능력을 제공하며, 이전 모델보다 10배 빠른 변형 모델도 있습니다. Gemini 앱에서 이미지 편집도 가능합니다.
- 새로운 최첨단 비디오 모델인 V3가 오늘부터 사용 가능합니다. V3는 향상된 시각적 품질, 물리학 이해력, 그리고 네이티브 오디오 생성 기능을 통해 사운드 효과, 배경음, 대화를 생성할 수 있습니다. V3는 영화 산업과의 협력을 통해 개발되었으며, 창의적인 표현의 가능성을 확장합니다.
- Flow는 V3, Imagine, Gemini를 결합한 새로운 AI 영화 제작 도구입니다. 사용자는 자신의 이미지나 생성된 이미지를 사용하여 장면을 구성하고, 정확한 카메라 제어를 포함하여 원하는 내용을 설명하여 클립을 생성할 수 있습니다. Flow는 캐릭터 및 장면 일관성을 유지하며, 클립 편집 및 확장이 가능합니다.
AI 및 사회, 접근성
- Google DeepMind는 AI를 과학 전반에 적용하여 수학(AlphaProof), 생명 과학(Amy, AlphaFold 3, Isomorphic Labs) 등 다양한 분야에서 큰 발전을 이루었습니다. 안전하고 책임감 있게 사용된다면 AGI(인공 일반 지능)는 과학 발견을 가속화하고 역사상 가장 유익한 기술이 될 잠재력을 가집니다.
- Project Astra 기술을 활용하여 IRA와 협력하여 시각 장애 또는 저시력 커뮤니티의 사람들을 돕는 프로토타입을 구축했습니다. 이는 사용자의 카메라를 통해 보이는 것을 설명하는 등 실시간 비디오 지원을 제공합니다.
- AI는 산불 탐지(Firesat 위성군), 재난 구호 드론 배송(Walmart, Red Cross 협력) 등 사회에 도움이 되는 방식으로 활용되고 있습니다. AI를 통해 로봇, 의학 치료법 발견, 양자 컴퓨터, 자율 주행 차량 등 미래의 발전이 수십 년이 아닌 수년 안에 가능해질 것으로 예상됩니다.
개발자 및 창작자 도구
- 700만 명 이상의 개발자가 Google AI Studio와 Vert.ex AI를 통해 Gemini API로 구축하고 있으며, 이는 지난 I/O 이후 5배 이상 성장한 수치입니다. Vert.ex AI에서 Gemini 사용량은 작년 이후 40배 이상 증가했습니다.
- 개발자 피드백을 기반으로 Gemini 2.5(Pro 및 Flash)에 대한 기능, 보안, 투명성, 비용 효율성, 제어 기능이 향상되었습니다.
- 다중 화자 지원을 갖춘 새로운 텍스트-음성 변환 미리보기가 도입되어 24개 이상의 언어에서 자연스러운 오디오 출력이 가능합니다. 이는 Gemini API에서 오늘부터 사용 가능합니다.
- 간접 프롬프트 주입과 같은 보안 위협에 대한 보호 기능이 강화되어 2.5는 Google의 가장 안전한 모델입니다.
- 사고 요약(thought summaries) 기능이 Gemini API 및 Vert.ex AI에 포함되어 모델의 생각 과정을 투명하게 볼 수 있습니다.
- 2.5 Flash는 동일한 성능에 필요한 토큰 수를 줄여 22% 효율성 향상을 보입니다.
- 사고 예산(thinking budgets) 기능이 2.5 Pro에도 적용되어 모델이 응답하기 전에 생각하는 데 사용하는 토큰 수를 제어할 수 있습니다.
- Jules는 비동기 코딩 에이전트로, GitHub와 통합되어 버그 수정, 업데이트 등 복잡한 코딩 작업을 몇 분 안에 처리할 수 있습니다. Jules는 현재 공개 베타 단계입니다.
- Music AI Sandbox는 음악 전문가들이 Lyria AI 모델의 가능성을 탐색할 수 있는 도구입니다.
- Lyria 2는 고음질 음악 및 전문가 수준 오디오를 생성할 수 있으며, 보컬과 풍부한 음악을 만듭니다. Lyria 2는 기업, YouTube 크리에이터 및 뮤지션에게 오늘부터 제공됩니다.
- Synth ID는 생성된 미디어에 보이지 않는 워터마크를 삽입하는 기술로, 현재까지 100억 개 이상의 콘텐츠에 워터마크가 적용되었습니다. 새로운 Synth ID 탐지기는 이미지, 오디오 트랙, 텍스트, 비디오에서 Synth ID를 식별할 수 있으며, 오늘부터 얼리 테스터에게 출시됩니다.
Android 및 XR
- Android는 미래를 가장 먼저 볼 수 있는 플랫폼이며, 많은 Gemini 혁신이 곧 Android에 적용될 예정입니다. Gemini는 전원 버튼에서 즉시 접근 가능하며 사용자의 컨텍스트를 이해합니다.
- Gemini는 휴대폰 외에도 스마트워치, 자동차 대시보드, TV 등 전체 Android 생태계 기기에 적용될 예정입니다.
- Android XR은 Gemini 시대에 구축된 최초의 Android 플랫폼으로, 헤드셋부터 안경까지 다양한 사용 사례를 지원합니다. Google은 Samsung 및 Qualcomm과 협력하여 Android XR을 구축하고 최적화했으며, 작년 개발자 미리보기 출시 이후 수백 명의 개발자가 플랫폼을 위해 개발하고 있습니다.
- AI 비서는 Android XR 기기에서 사용자의 컨텍스트와 의도를 더 풍부하게 이해하여 하루 종일 도움을 줄 수 있습니다.
- 헤드셋에서는 Samsung의 Project Muhan이 최초의 Android XR 기기로 올해 말 구매 가능합니다. Gemini와 함께 무한한 화면에서 앱을 탐색하고, 지도 앱에서 가상으로 이동하며, MLB 앱에서 경기를 시청하며 선수 및 경기 통계에 대해 대화할 수 있습니다.
- 스마트 안경은 Android XR과 함께 가볍고 하루 종일 착용 가능하도록 설계되었으며, 카메라, 마이크, 스피커, 옵션 인렌즈 디스플레이를 갖추고 Gemini가 주변 세계를 보고 들을 수 있게 합니다. 안경은 휴대폰과 연동되어 앱에 접근할 수 있으며, 손을 자유롭게 유지할 수 있습니다. 안경은 AI를 사용자가 있는 곳으로 바로 가져오는 자연스러운 형태입니다.
- Android XR 안경 프로토타입 시연에서는 Gemini가 사용자의 카메라를 통해 보이는 것을 검색하고(사진 벽 정보), 세부 정보(커피숍 이름)를 기억하고, 이벤트를 예약하고(커피 약속), 내비게이션(걸어가는 길 안내)까지 수행했습니다. 이는 휴대폰을 꺼내지 않고도 이루어졌습니다.
- 실시간 언어 번역도 안경에서 시연되었습니다.
- Google은 Samsung과의 파트너십을 확장하여 헤드셋을 넘어 안경까지 Android XR을 확장하고 있습니다. Gentle Monster 및 Warby Parker가 Android XR과 함께 안경을 구축하는 최초의 안경 파트너가 될 예정입니다. 안경 프로토타입은 신뢰할 수 있는 테스터가 사용 중이며, 올해 말부터 안경 개발이 가능해질 것입니다.
AI 구독 플랜
- Google은 두 가지 AI 구독 플랜인 Google AI Pro 및 새로운 Google AI Ultra를 출시합니다.
- Pro 플랜은 전 세계적으로 사용 가능하며, 무료 버전보다 높은 사용량 한도 및 특별 기능을 포함한 AI 제품 스위트를 제공합니다. 이는 이전의 Gemini Advanced였던 Gemini 앱의 Pro 버전을 포함합니다.
- Ultra 플랜은 최첨단 AI 기능을 원하는 사용자를 위한 것으로, 가장 높은 사용량 한도, Google 전체의 새로운 기능 및 제품에 대한 가장 빠른 접근 권한을 제공합니다. Ultra 구독자는 Gemini 앱에서 2.5 Pro Deep Think 모드(출시 시점), V3가 포함된 Flow 접근 권한을 받게 됩니다. 또한 YouTube Premium 및 대량의 저장 공간이 포함됩니다. Ultra 플랜은 현재 미국에서 사용 가능하며 곧 전 세계적으로 출시될 예정입니다.
AI의 비전
- Gemini 앱을 범용 AI 비서로 전환하는 것이 Google의 궁극적인 비전입니다. 개인적이고(personal), 선제적이며(proactive), 강력한(powerful) AI 비서가 되는 것이 목표입니다. 이는 AGI 달성을 위한 핵심 이정표 중 하나입니다.
- 수십 년간의 연구는 오늘날 전 세계 사람들에게 현실이 되고 있습니다. AI는 정보에서 지능으로 나아가는 검색의 미래를 이끌고 있습니다.
- 생성형 미디어는 창의성의 경계를 확장하고 있으며, Google은 예술 커뮤니티와 긴밀히 협력하여 기술을 개발하고 있습니다.
이러한 발전은 AI가 우리의 삶을 풍요롭게 하고, 과학 발전 속도를 가속화하며, 발견과 경이로움의 새로운 황금기를 열어줄 잠재력을 가지고 있음을 보여줍니다. AI는 우리의 일상 생활에 도움이 되고, 컨텍스트를 이해하며, 우리를 대신하여 모든 기기에서 계획하고 행동할 수 있는 새로운 종류의 AI를 실현하는 데 중요한 역할을 할 것입니다.