“아주 만족스러운 인터뷰를 하고 돌아와서, 녹음을 들으며 타이핑을 하면 굉장히 힘들다. ‘보이스 타이핑’을 쓴다면 조금은 수월해질 것 같다.”

미디어오늘과 구글이 15일 서울 강남구 ‘구글캠퍼스 서울’에서 공동주최한 ‘구글 뉴스랩 혁신포럼에서 기자 출신인 구글 뉴스랩 매니저 아이린 리우 (Irene Jay Liu)는 기자들이 당장 쓸 수 있는 머신러닝 사례를 소개했다.

▲ 구글 뉴스랩 매니저 아이린 리우 (Irene Jay Liu)가 발표하고 있다.  사진=이치열 기자 truth710@
▲ 구글 뉴스랩 매니저 아이린 리우 (Irene Jay Liu)가 발표하고 있다. 사진=이치열 기자 truth710@

구글 ‘보이스 타이핑’은 실시간으로 음성을 타이핑해준다. 인터뷰를 하며 타이핑을 하지 못했다면, 녹음을 들으며 헤드폰을 쓰고 이를 그대로 말하면 문서에 텍스트로 나타난다.

▲ 구글의 '보이스 타이핑'을 실행한 화면.
▲ 구글의 '보이스 타이핑'을 실행한 화면.
머신러닝의 활용은 기자의 노동 일부를 대신해주는 보조 역할에만 머물지 않는다. 실질적으로 머신러닝을 활용해 취재할 수도 있다.

아이린 리우 매니저는 2010년 국제탐사보도언론인협회(ICIJ)에서 작성한 ‘Looting the seas’를 2017년에 썼다면 머신러닝을 활용할 수 있다고 말했다. 해당 기사는 바다에서 일어나는 남획에 대한 내용으로 정부에 데이터를 요청해 분석하는 전통적인 방식으로 취재했다. 하지만 구글의 머신러닝을 사용한다면 등록 돼 있는 모든 선박 추적이 가능하다. 선박이 움직이는 패턴을 알 수 있으며, 이를 바탕으로 선박이 어떤 어종을 획득하는지 알 수도 있다.

▲ ICIJ의 'Looting the Seas'.
▲ ICIJ의 'Looting the Seas'.
아이린 매니저는 최근 이슈가 되고 있는 혐오범죄 관련 데이터 역시 구글 머신러닝으로 찾을 수 있다고 말했다. 그는 “혐오범죄 외에도, 국가 차원에서 따로 수집하지 않는 데이터를 직접 수집할 수 있다”고 말했다.

사진 기자들 역시 머신러닝을 활용할 수 있다. 미국 통신사 AP는 지난 리우 올림픽 당시 기자가 갈 수 없는 장소에 카메라를 설치하고 인공지능으로 촬영했다. 천장에서 바라본 각도의 경기 사진 같은 것들이 그 예다. 머신러닝은 인간이 찍을 수 없는 각도에서 장시간 사진 촬영이 가능하다.

▲ 머신러닝을 사용해 찍은 AP의 사진.
▲AI 카메라를 사용해 찍은 AP의 리우올림픽 사진.
얼굴인식이나 랜드마크 감지 등의 머신러닝 기술도 기사에 활용할 수 있다. 얼굴인식 기능은 집회 현장 등 군중이 모여 있는 현장에서 특정 인물이 어떤 행동을 했는지 분석하는 데 쓸 수 있다. 얼굴인식 기능을 활용하면 인물 한 명에게 초점을 맞춰, 그 인물 위주로 영상 재생이 가능하다. 이러한 기능을 스포츠 경기에서 활용하면 특정 선수에 초점을 맞춰 해당 선수에 대한 평가를 기사로 작성할 수도 있다.

▲ 구글의 얼굴인식 기능을 사용한 화면.
▲ 구글의 얼굴인식 기능을 사용한 화면.
한편 미국 블룸버그의 최 유 기자는 (Yue Qiu) 뉴스룸에서 머신러닝을 사용할 때, 함께 협력하는 이들과의 신뢰가 중요하다고 강조했다. 그는 “블룸버그의 경우 그래픽 에디터가 10명 정도 되는데 많은 기자들과 협업을 하고 있다”며 “중요한 것은 많은 이야기를 나눠야 그래픽 에디터나 기술자들이 그에 맞는 기술 형태를 고안할 수 있다는 것”이라고 말했다. 최 유 기자는 “서로의 기술을 보완하는 작업을 하는 만큼 신뢰가 중요하고, 신뢰를 바탕으로 기술을 활용해야 한다”고 강조했다.
저작권자 © 미디어오늘 무단전재 및 재배포 금지