Google는 I/O 2025에서 실시간 시각 검색 혁신을 발표했습니다. 새롭게 도입된 “Search Live” 기능은 카메라를 통한 실시간 검색과 대화를 지원하며, AI 모드는 더욱 철저한 결과를 제공합니다. 이 기능은 다양한 자료 탐색을 돕고, 사용자 활동 기반 맞춤형 응답을 제공할 예정입니다. AI 모드는 또한 쇼핑 기능을 확장하고 Google Pay와 연동해 편리한 결제를 지원합니다.
Google는 I/O 2025에서 검색(Search) 기능을 위한 새로운 AI 기능을 발표했습니다. 이 기능 중 하나는 카메라를 통해 실시간으로 보는 것을 논의할 수 있게 해줍니다. 현재 15억 명 이상의 사람들이 Google Lens에서 시각 검색을 사용하고 있으며, 이제 Google은 Project Astra의 실시간 기능을 검색에 도입함으로써 다중 모드(multimodality)에서 다음 단계로 나아가고 있습니다. 새롭게 도입된 기능인 “Search Live”를 통해 사용자는 눈앞에 있는 것에 대해 검색과 대화를 주고받을 수 있습니다. 예시로, 복잡한 수학 문제를 카메라로 가리키고 검색에 문제 해결을 요청하거나 이해하기 어려운 개념을 설명해달라고 할 수 있습니다.
Search 기능은 또한 더 많은 자료를 탐색할 수 있도록 링크를 제공합니다. Search Live에 접근하려면 Google Lens나 이제 막 미국에서 AI 모드가 일반 사용자에게 배포되기 시작한 후, Lab 사용자에게 제공된 AI 모드에서 라이브 아이콘을 탭해야 합니다. AI 모드는 Google이 검색에 직접 구축한 새로운 챗봇으로, 사용자의 요청을 하위 주제로 나누어 매우 관련성 높은 내용을 통해 더 철저한 결과를 제공합니다. 새로운 AI 모드 탭은 앞으로 몇 주 동안 검색과 Google 앱에 나타날 예정입니다.
AI 모드는 또한 상호작용할 수 있는 그래픽을 생성하여 숫자와 데이터를 분석하고 시각화하는 데 도움을 줄 수 있습니다. 예를 들어, 두 개의 서로 다른 스포츠 팀을 비교하고 싶을 때, Google은 자체 실시간 스포츠 정보를 활용하여 팀의 성과를 보여주는 그래프를 생성할 수 있으며, 금융 관련 쿼리에 대해서도 실시간 그래프를 생성할 수 있습니다.
조만간 AI 모드는 사용자의 과거 활동을 기반으로 맞춤형 응답을 제공할 수 있게 될 것입니다. 특정 도시를 방문할 때 어디에서 식사할 수 있는지 묻는다면, 과거에 야외 좌석을 예약한 바 있다면 야외 좌석이 있는 레스토랑을 추천해 줄 수 있습니다. 또한, 호텔 및 항공편 예약을 기반으로 추천을 제공할 수도 있습니다. 이에 더해, AI 모드는 쇼핑 경험도 제공하여 사용자가 자신의 사진을 업로드하여 가상으로 옷을 입어볼 수 있게 해줍니다. 사용자가 원하는 옷을 선택하면, Google Pay를 통해 해당 웹사이트에서 자동으로 구매할 수 있는 Google’s 새로운 결제 기능도 제공됩니다.
※출처: Engadget