구글 “AI로 중풍·치매 환자 말 알아듣는다”

‘개인마다 다른 발음 학습→텍스트·컴퓨터 음성 전환’ 앱 개발중

구글의 '프로젝트 릴레이트' 참가자가 이 앱을 이용하고 있다
구글의 ‘프로젝트 릴레이트’ 참가자가 이 앱을 이용하고 있다 [구글 제공. 재판매 및 DB 금지]

세계 최대 검색엔진 업체 구글이 인공지능(AI)을 이용해 언어 장애가 있는 사람의 말을 알아듣고 이를 받아 적는 애플리케이션(응용프로그램)을 개발 중이다.

구글은 10일 미디어를 상대로 ‘구글의 발명가들'(Inventors @ Google) 행사를 열고 현재 개발 중인 AI 기반의 혁신 기술을 발표했다.

‘프로젝트 릴레이트'(relate)로 이름 붙여진 이 사업 겸 앱은 뇌졸중(중풍)이나 치매, 루게릭병(근위축증), 뇌 질환 등으로 또렷하게 발음하기 힘든 사람의 말을 알아듣도록 하는 게 목표다.

따라하기는 이용자가 말을 하면 앱이 좀 더 분명한 컴퓨터 음성으로 그 말을 되풀이해 다른 사람이 이를 알아듣도록 해준다. 어시스턴트는 텍스트로 전환된 이용자의 발언 내용을 인공지능 비서인 ‘구글 어시스턴트’로 보내 음악을 틀거나 전등을 켜라고 지시할 수 있다.

이를 위해선 머신러닝을 통해 개인마다 고유한 말하기 방식을 AI가 학습하는 절차를 먼저 거쳐야 한다. 약 500개의 예문과 30∼90분의 시간이 필요하다고 한다.

이 프로젝트를 이끄는 줄리 카티오는 “아직 개발 초기 단계로, 영어 화자만을 상대로 시험하고 있다”며 장기적으로는 다른 언어로도 확대할 계획이라고 말했다.

카티오는 또 이 앱이 한국식 억양을 가진 영어, 독일식 억양을 가진 영어처럼 특정 언어권 화자의 독특한 억양이 들어간 외국어를 알아듣는 데에도 쓰일 수 있다고 덧붙였다.

홍수 예보를 위한 디지털 지형 모델 제작 과정을 묘사한 개념도
홍수 예보를 위한 디지털 지형 모델 제작 과정을 묘사한 개념도 [구글 제공=연합뉴스]

구글은 또 이날 인도·방글라데시에서 파일럿 프로그램으로 운영 중인 ‘홍수 예보 이니셔티브’도 소개했다. 이는 상습적인 홍수 피해 지역의 주민이 미리 대비할 수 있도록 홍수 경보를 발령하는 시스템이다.

2018년 시작한 이 사업은 규모를 점차 확대해 현재는 3억6000만명을 대상으로 홍수 경보를 내보내고 있다.

구글은 수천 개 위성 사진을 수집해 홍수가 자주 일어나는 지역의 디지털 지형 모델을 만든 다음 홍수가 난 상황을 수십만회 시뮬레이션해 물길의 흐름을 예측하는 모델을 설계했다.

이를 인도 정부가 1시간 단위로 측정하는 강의 수위 정보와 결합해 홍수가 날 것으로 예상되는 지역 주민에게 안드로이드 스마트폰 등으로 홍수 경보를 발령하고 있다.

이 사업을 이끄는 셀라 네보는 “이 시스템을 통해 홍수로 인한 사망자와 재산상 손실을 30∼50% 줄일 수 있다”며 “지금 3억6천만명으로 범위를 확대했는데 이는 홍수의 영향을 받는 사람 대부분을 포함하는 것”이라고 말했다.

물론 오차는 있다.

수위의 경우 평균 12㎝, 침수 지역 예측에선 평균 약 100m의 오차가 있다고 한다.

네보는 “우리 옆집이 잠길지는 정확히 예측 못 해도 우리 동네가 잠길지는 알 수 있다”면서 “다른 나라 정부들과도 논의하고 있으며 앞으로 더 확대할 것”이라고 말했다.