[IT 동아] [AI써봄] “전문가와 영상통화하는 느낌” 구글 서치 라이브, 검색 판도 바꿀까

[IT동아 박귀임 기자] 궁금한 것이 생겼을 때 대부분 검색창을 연다. 하지만 막상 뭘 검색해야 할지 모를 때는 막막해진다. 키우는 식물의 잎이 갑자기 노랗게 변했거나, 처음 보는 전자기기 단자가 뭔지 모르거나, 낯선 여행지에서 주변 건물이 무엇인지 알고 싶을 때가 대표적이다. 상황을 텍스트로 옮기는 것 자체가 번거롭고, 설명을 잘해야 원하는 답이 나온다는 부담도 크다. 결국 웹 링크 여러 개를 열어보고 나서야 원하는 정보를 찾는 과정이 반복된다.
구글이 서치 라이브 기능을 출시했다 / 출처=구글
구글이 서치 라이브 기능을 출시했다 / 출처=구글

글로벌 빅테크 기업 구글이 이 문제를 일부 해소할 수 있는 기능을 선보였다. 3월 26일(현지 시간) 한국을 포함한 전 세계 200개 이상의 국가에 공식 출시된 ‘서치 라이브(Search Live)’다. 이 기능은 카메라로 상황을 보여주고 말로 물어보면 AI가 맥락을 읽고 바로 답해준다. 기자가 직접 써보니 단순한 검색이 아닌 ‘전문가와의 영상통화’에 가까웠다.

텍스트 검색 한계 해소, 자연스러운 소통 환경 제공

일반적인 텍스트 검색의 한계는 오래전부터 지적돼 왔다. 눈앞의 식물이 왜 시드는지, 처음 보는 전자기기의 단자가 무엇인지 설명하려면 말보다 직접 보여주는 편이 훨씬 빠르지만 기존 검색 방식으로는 쉽지 않았다. 구글은 구글렌즈로 이 불편을 해소하려 했지만 정적인 이미지 검색에 머물렀다는 한계가 있었다.
서치 라이브는 구글의 연례 개발자 컨퍼런스인 ‘구글 I/O 2025’에서 처음 공개됐다. 이후 미국과 인도에서 제한적으로 운영하다 전 세계 확대를 공식화했다.
서치 라이브의 기술적 핵심은 구글의 신규 오디오·음성 모델인 제미나이 3.1 플래시 라이브다 / 출처=구글
서치 라이브의 기술적 핵심은 구글의 신규 오디오·음성 모델인 제미나이 3.1 플래시 라이브다 / 출처=구글
서치 라이브의 기술적 핵심은 구글의 신규 오디오·음성 모델인 제미나이 3.1 플래시 라이브(Gemini 3.1 Flash Live)다. 이 모델은 보다 자연스럽고 직관적인 대화를 제공하는 것이 특징이다. 다국어 처리 능력이 모델 자체에 내재돼 있어 한국어로도 끊김 없이 대화할 수 있다. 구글에 따르면 서치 라이브는 제미나이 3.1 플래시 라이브를 통해 한층 빨라진 응답 속도와 안정성을 바탕으로 사람과 대화하는 듯한 자연스러운 소통 환경을 제공한다.

단순한 사용법으로 접근성 높여

서치 라이브의 사용법은 단순하다. 안드로이드나 iOS용 구글 앱 검색창 하단의 ‘라이브(Live)’ 아이콘을 누르면 된다. 별도 앱 설치나 계정 전환도 필요 없어 접근성이 높다.
기본은 음성 대화 검색 모드다. 서치 라이브에서 사용자가 말로 질문하면 AI가 오디오로 답해준다. 일반 검색과 달리 답변과 함께 관련 웹 링크도 제공, 더 깊이 있는 정보 탐색이 가능하다. 후속 질문 역시 자연스럽게 이어갈 수 있다.
서치 라이브는 음성 대화부터 카메라 연동까지 가능하며 텍스트로도 결과를 확인할 수 있다 / 출처=IT동아
서치 라이브는 음성 대화부터 카메라 연동까지 가능하며 텍스트로도 결과를 확인할 수 있다 / 출처=IT동아
카메라 연동이 서치 라이브의 핵심 차별점이다. 화면에 잡힌 시각 정보를 AI가 실시간으로 인식하고, 상황에 맞는 답변을 내놓는다. 가구 조립 중 부품을 비추거나, 이름 모르는 꽃 혹은 관리가 필요한 식물을 보여주는 식이다. AI는 이용자의 눈앞에 비친 상황을 실시간으로 파악해 맞춤형 제안과 유용한 해결책을 제시해준다.
서치 라이브는 구글 렌즈와의 연계도 매끄럽다. 이미 구글 렌즈로 무언가를 비추고 있다면 화면 하단의 라이브 아이콘만 눌러도 서치 라이브의 실시간 대화 모드로 즉시 전환된다. 또 설정에서 ‘실시간 자막’을 활성화하면 AI의 대답을 텍스트로도 확인할 수 있다.

안약부터 날씨까지 직접 써보니

서치 라이브로 안약 사용법을 묻는 모습 / 출처=IT동아
서치 라이브로 안약 사용법을 묻는 모습 / 출처=IT동아
기자도 서치 라이브를 이용해봤다. 카메라를 활성화한 후 최근 안과에서 처방 받은 안약 2개를 비춰 사용법을 물었다. AI는 안약의 의약품명을 정확하게 파악한 후 사용법을 설명했다. 두 안약을 넣을 때 5분 이상 간격을 둬야 한다는 세심한 부분부터 손을 씻고 눈에 직접 닿지 않게 점안해야 한다는 기본 사항까지 안내했다.
길가에 놓인 꽃과 구입한 빵도 서치 라이브를 활용해 궁금증을 해소할 수 있다 / 출처=IT동아
길가에 놓인 꽃과 구입한 빵도 서치 라이브를 활용해 궁금증을 해소할 수 있다 / 출처=IT동아
길가에 놓인 꽃을 비췄더니 버베나 종류 중 하나인 화이트 버베나라고 답하며 꽃말과 관리 방법에 대해 더 알고 싶은지 되물었다. 구입한 프레첼을 보여주며 먹는 방법을 묻자 버터, 머스터드 소스, 치즈 소스 등 취향별 활용법을 자연스럽게 풀어냈다.
무엇보다 AI가 차분하고 정확한 목소리로 설명을 이어가자 마치 전문가와 영상통화하는 느낌이 들었다. “혹시 어떤 안약의 사용법이 더 궁금하신가요” 혹은 “다른 빵도 알아볼까요” 등 후속 질문을 이어가는 것도 매끄러웠다.
타이핑이 번거로운 순간에 서치 라이브의 강점이 발휘된다 / 출처=구글
타이핑이 번거로운 순간에 서치 라이브의 강점이 발휘된다 / 출처=구글
타이핑이 번거로운 순간에 서치 라이브의 강점이 발휘됐다. 핸즈프리 상황도 테스트해봤다. 지하철 이동 중 이어폰만으로 “내일 서울 날씨 어때”라고 질문하자 흐리고 비가 올 수 있으니 우산을 챙기라고 답했다. 실제로 다음날 비가 왔다. 이어폰을 통하는 만큼 전문가와 통화하는 느낌이 더 강하게 들었다.

강점·한계 공존···미래 검색 방식 보여줘

다양하게 서치 라이브를 활용해본 결과 강점과 한계를 동시에 드러냈다. 강점은 명확했다. 카메라와 음성을 동시에 처리하는 멀티모달 능력은 완성도가 높았다. 한국어 대화의 자연스러움도 예상보다 훨씬 나았다. 관련 웹 링크를 병행 제공하는 방식은 AI 답변의 신뢰도를 보완해주는 영리한 설계다.
서치 라이브는 조명이 어둡거나 피사체가 작을 때 오인식률이 올라갔다 / 출처=IT동아
서치 라이브는 조명이 어둡거나 피사체가 작을 때 오인식률이 올라갔다 / 출처=IT동아
반면 한계도 있었다. 복잡한 질문에서 정확도가 떨어지는 경우가 있었다. 조명이 어둡거나 피사체가 작을 때 오인식률이 올라갔다. 벚꽃이 거의 떨어진 나무를 멀리서 비췄을 때 ‘벚꽃이 만개했네요. 벚꽃 명소 알려드릴까요?’라고 답해 당황스러운 순간도 있었다. 실시간 자막을 ‘스크립트’로 확인할 때 안약을 ‘Anak’라고 나오는 부분 역시 아쉬웠다. 다만 이 경우 검색 결과 자체에 문제가 생기지는 않았다. 또 스크립트를 보면 ‘AI 대답에는 오류가 있을 수 있습니다’라는 문구도 검색 결과마다 표시된다. AI 답변에 대한 맹신을 경계하는 장치를 기본값으로 넣은 셈이다.
서치 라이브는 카메라와 음성, 그리고 실시간 AI를 하나의 흐름으로 묶어낸 완성도는 기대 이상이었다. 미래의 검색 방식이 어떤 모습일지 구체적으로 보여줬다. 특히 시각 정보 기반 질문에서는 기존 어떤 검색 방식보다 빠르고 직관적이었다.
결국 서치 라이브는 일반 검색이 아니라 전문가와의 영상통화였다. AI가 눈 앞의 상황을 함께 보면서 맥락에 맞는 답을 내놓은 경험은 기존 검색과 결이 달랐다. 개선이 필요한 부분이 있지만 손을 쓸 수 없거나 말과 글로 설명하기 어려운 시각적 상황이라면 현 시점에서 좋은 선택지다.
IT동아 박귀임 기자(luckyim@itdonga.com)

<구체적인 내용이나 첨부파일은 아래 [IT 동아] 사이트의 글에서 확인하시기 바랍니다.>