AI & 로봇 Hot & News, 트렌드/2025년 AI & 로봇 핫 이슈

Google I/O 2025 발표내용 총정리 - Android XR, Gemini 2.5, AI Mode 완벽분석

aibotplus 2025. 6. 9. 06:00

2025.06.08 - [분류 전체보기] - 🌐 글로벌 테크 행사 Top 10 (2025년 기준)

구글 개발자컨퍼런스 I/O 2025 리뷰: 스마트안경부터 AI검색까지 신기술 총망라

Google I/O 2025는 AI를 중심으로 구글의 현재 기술력과 미래 비전을 제시한 행사였습니다. 특히 Android XR, Gemini 2.5, AI Mode는 이번 I/O의 핵심 발표 내용으로, 각 분야별로 자세히 분석해 드리겠습니다.


1. Android XR: 몰입형 컴퓨팅의 미래

Google I/O 2025에서 가장 주목받은 하드웨어 및 플랫폼 발표 중 하나는 Android XR이었습니다. 이는 구글이 미래 컴퓨팅 플랫폼으로 XR(확장 현실)에 대한 강력한 의지를 보여준 결과입니다.

  • 삼성과의 협력 강화: 삼성과의 '프로젝트 무한(Project Moohan)'의 초기 모습이 공개되었으며, 삼성과의 협력을 통해 XR 헤드셋을 넘어 스마트 안경으로까지 플랫폼을 확장하고 있음을 밝혔습니다. 이는 안드로이드 XR 생태계 구축에 있어 하드웨어 파트너십의 중요성을 강조하는 부분입니다.
  • Gemini AI와의 통합: 안드로이드 XR 기기에는 Gemini AI가 탑재되어 사용자의 시야를 공유하며, 대화 시작 시 즉각적인 지원을 제공합니다. 이는 현실 세계와 가상 세계 모두에서 더욱 몰입감 높은 경험을 가능하게 합니다. 예를 들어, 사용자가 보고 있는 것을 Gemini가 이해하고 그에 맞는 작업을 대신 수행하여 XR 헤드셋의 사용성과 기능성을 강화합니다.
  • 주요 기능 시연: 행사에서는 메시지 전송, 일정 관리, 길 안내, 사진 촬영 등의 기능이 시연되었습니다. 특히, 실시간 언어 번역 기능은 두 사람 간의 대화를 실시간으로 번역하여 자막으로 제공함으로써 언어 장벽을 허무는 잠재력을 보여주었습니다.
  • 개발자 도구 및 미래 전망: 구글은 개발자들이 안드로이드 XR 플랫폼을 위한 개발을 시작할 수 있도록 소프트웨어 및 레퍼런스 하드웨어 플랫폼을 구축 중임을 밝혔습니다. 아직 배터리 수명, 사회적 수용성, 개인 정보 보호와 같은 기술적, 사회적 과제들이 남아있지만, 구글은 강력한 파트너십을 통해 이를 극복하고 XR을 차세대 메인스트림 컴퓨팅 플랫폼으로 만들겠다는 의지를 보였습니다.

Android XR은 일상 속에서 AI의 활용 방식을 근본적으로 변화시킬 잠재력을 가지고 있으며, Gemini AI와 확장 현실 기술이 만나 열어갈 새로운 시대의 서막을 알리는 중요한 이정표로 평가받고 있습니다.


2. Gemini 2.5: 구글 AI의 비약적인 발전

Google I/O 2025의 최대 스타는 단연 Gemini 2.5였습니다. 이전 모델보다 훨씬 향상된 성능과 다양한 기능으로 구글의 AI 기술력을 입증했습니다.

  • Gemini 2.5 Pro:
    • Deep Think(딥 씽크) 모드: 이 실험적인 고급 추론 모드는 복잡한 문제를 여러 단계로 나누어 사고하고, 그 과정을 설명하는 등 마치 인간처럼 생각하고 대화하는 능력을 보여줍니다. 특히 수학, 과학, 코딩 분야의 주요 벤치마크에서 뛰어난 성과를 기록했습니다. 단순히 답만 제시하는 것이 아니라 사고 과정을 투명하게 보여줌으로써 신뢰도를 높였습니다.
    • 향상된 멀티모달 기능: 텍스트, 이미지, 오디오 등 다양한 형태의 입력을 더 정확하게 이해하고 처리하는 능력이 강화되었습니다.
    • 코딩 능력 및 효율성 증대: 개발자들을 위한 최고의 코딩 모델로 꾸준히 사랑받고 있으며, 생산성 증대를 위한 다양한 에이전트 기능도 지원합니다.
  • Gemini 2.5 Flash:
    • 속도와 효율성에 최적화: 더 가볍고 빠른 모델로, 멀티모달 입력 처리 및 긴 문맥 이해 능력을 유지하면서 토큰 사용량을 30% 절감하여 속도와 실용성을 모두 확보했습니다. 생생한 오디오 생성 데모를 통해 그 가능성을 선보였습니다.
    • Gemini 앱에서 일반 사용자 이용 가능: 다음 달에는 개발자를 위한 'Google AI 스튜디오'와 기업용 버텍스 AI(Vertex AI)에서도 업데이트된 버전이 출시될 예정입니다.
  • Gemini Nano: 온디바이스 AI를 담당하며 이제 멀티모달 기능을 지원하여 Chrome 및 Android에서 개인 정보 보호 강화, 지연 시간 감소, 비용 절감 효과를 제공합니다.
  • Gemini Live: 이전에 Project Astra의 일부였던 대화형 AI로, 카메라 및 화면 공유 기능을 갖추고 이제 모든 Android 및 iOS 사용자에게 무료로 제공되어 멀티모달 상호작용을 촉진합니다.
  • 다양한 분야 특화 모델 및 개방형 모델 생태계 확장:
    • MedGemma: 의료용 다중 모달(텍스트·이미지) 모델로, 개발자 맞춤형 튜닝 및 경량 추론에 최적화되어 있습니다.
    • SignGemma: 미국 수어(수화)에서 문자 변환을 지원하며, 2025년 내 Gemma 계열에 추가될 예정입니다.
    • DolphinGemma: 세계 최초 돌고래 언어 모델로, 동물 행동 연구에 적용될 수 있습니다.
    • Gemma 3n Preview: 접근성 높은 최신 개방형 모델도 소개되었습니다.
  • 개발자 도구 및 플랫폼 강화:
    • Google AI Studio 및 Vertex AI: 개발자들이 Gemini API를 사용하여 Gemini 2.5 모델에 접근하고 AI 애플리케이션을 구축할 수 있는 주요 플랫폼입니다.
    • Gemini Code Assist: 개인 및 GitHub용으로 정식 출시되어 Gemini 2.5로 구동되며, 1백만 토큰 컨텍스트 창을 지원합니다.
    • Jules: 비동기식 자율 코딩 에이전트로, 공개 베타 버전으로 제공되어 버그 처리 및 새로운 기능 구축과 같은 작업을 수행합니다.
    • Stitch: 자연어나 이미지를 사용하여 UI 디자인과 프론트엔드 코드를 생성하는 AI 기반 도구입니다.

Gemini 2.5는 구글의 모든 제품과 서비스에 통합되어 AI 시대의 핵심 엔진 역할을 수행할 것으로 기대됩니다.


3. AI Mode: 검색의 혁신과 개인화된 경험

Google I/O 2025에서 가장 큰 주목을 받은 소프트웨어 발표는 AI Mode였습니다. 이는 구글 검색의 패러다임을 근본적으로 바꾸는 변화를 예고합니다.

  • 검색 경험의 변화: AI Mode는 기존의 링크 목록 제공 방식을 넘어, 사용자와 대화하고, 복잡한 작업을 수행하며, 개인화된 정보를 제공하는 지능형 어시스턴트로서 검색을 진화시킵니다. 미국 내 모든 사용자에게 기본 검색 환경에서 제공되기 시작했습니다.
  • Gemini 2.5 통합: AI Mode는 구글의 최신 AI 모델인 Gemini 2.5를 기반으로 합니다.
  • 에이전트 기능 강화: AI Mode는 챗봇에 가깝게 작동하며, 기존 Gemini에는 없던 새로운 기능들이 추가되었습니다. 구글이 작년 말 공개한 에이전트 AI '프로젝트 마리너'를 AI Mode에 적용하여 클릭 한 번으로 식당 예약이나 공연 티켓 예매 등이 가능해지는 등 복잡한 작업을 대신 수행할 수 있습니다. 구글은 이러한 에이전트형 검색이 사용자의 시간을 절약하면서도 최종 결정과 통제권은 사용자에게 남겨두는 방향으로 설계되었음을 강조했습니다.
  • Deep Search (딥 서치): 사용자의 복잡한 질문을 여러 개의 하위 질문으로 쪼개고, 이를 동시에 검색하는 '팬 쿼리(fan-query)' 기술을 활용합니다. 이를 통해 기존 검색보다 훨씬 더 깊이 있게 웹을 탐색하며, 사용자의 질문에 정확히 일치하는 더 관련성 높은 콘텐츠를 찾아낼 수 있습니다.
  • Search Live (서치 라이브): 카메라를 통해 보이는 것을 실시간으로 구글 검색과 대화하며 정보를 찾을 수 있는 기능입니다. 예를 들어, "지금 보고 있는 자전거에 필요한 부품을 알려줘"라고 말하면, AI가 카메라를 통해 인식한 정보로 무엇이 필요한지, 어떻게 구하는지 알려주는 모습을 시연했습니다. AI가 사용자의 "눈"이 되어 돕는 기능입니다.
  • 개인화 및 편의성 증대: AI Mode는 사용자 의도를 이해하는 능력이 향상됨에 따라 일반 검색보다 2~3배 더 긴 질문을 처리할 수 있습니다. 또한, Gmail, Google Workspace 등 구글의 다른 서비스와 긴밀하게 연동되어 개인화된 스마트 답장, 받은 편지함 정리, 통합된 캘린더 약속 일정 관리 등 업무 생산성을 높이는 기능이 강화되었습니다.
  • 점진적인 확대: AI Mode의 새로운 기능들은 앞으로 몇 주 또는 몇 달 안에 구글 랩스(Google Labs) 이용자에게 먼저 제공될 예정입니다. 구글은 AI 모드가 "향후 검색 경험의 미리보기" 역할을 할 것이라고 말하며, 충분한 피드백을 거쳐 향후 기본 검색 경험에 통합할 계획도 밝혔습니다.

AI Mode는 구글이 AI를 통해 검색 시장의 리더십을 유지하고 사용자에게 더욱 지능적이고 개인화된 경험을 제공하려는 전략의 핵심입니다.


총평:

Google I/O 2025는 명실상부한 'AI 퍼스트(AI First)' 전략을 보여준 행사였습니다. Gemini 2.5를 중심으로 한 AI 모델의 비약적인 발전, Android XR을 통한 몰입형 컴퓨팅의 미래 제시, 그리고 AI Mode를 통한 검색 경험의 혁신은 구글이 AI를 단순한 도구를 넘어 우리 일상의 모든 영역에 자연스럽게 통합시키려는 강력한 의지를 보여주었습니다. 하드웨어와 소프트웨어, 그리고 다양한 서비스 전반에 AI를 깊이 녹여내며 구글이 제시하는 AI의 미래 청사진은 매우 구체적이고 현실적이었다는 평가를 받고 있습니다.