인도의 한 컴퓨터 공학과 대학생이 수화를 실시간으로 번역해 주는 AI 모델을 개발했다. 인도 벨로르 공과대학교(VIT)에 재학 중이던 21살 프리얀잘리 굽타(Priyanjali Gupta)는 아마존(Amazon)의 AI 비서 알렉사(Alexa)와 대화를 하던 도중, 말을 할 수 없는 특수 장애인의 경우 이런 음성 AI 서비스를 이용하기 쉽지 않겠단 생각을 떠올렸다. 그녀는 자신이 가진 지식과 기술로 이 불편을 해소해볼 수는 없을까 문제 해결에 돌입한다.
그리고 머지않아 굽타는 자신의 링크드인(LinkedIn) 계정에 해당 AI가 “안녕하세요, 사랑해요, 고마워요, 부탁해요, 예, 아니요”등 6개 수화를 번역하는 데모 동영상을 업로드한다. 소프트웨어의 프로토타입을 개발하는 데 성공한 것. 해당 소프트웨어는 웹캠과 AI 기반 기술, 텐서플로우(TensorFlow) 객체 감지 API 등을 사용하여 실시간으로 수화를 식별하고 번역한다. 학습된 팔과 손가락 등 여러 신체 부위의 움직임을 토대로 제스처를 영문으로 변환하는 것. 해당 동영상은 6만 6천 개에 달하는 ‘좋아요’를 기록하며 화제가 됐다.
다만 해당 기술이 실생활에서 상용화되기까지는 시간이 좀 더 소요될 것으로 보인다. 수화에는 손의 제스처 말고도 표정, 어깨의 들썩임 등 현재 기술로썬 완전히 식별하기 어려운 미세한 움직임이 대거 포함되기 때문. 하지만 이번 경우처럼, 특수 장애인들과의 소통 격차에 대해 충분한 관심이 집중된다면 향후 몇 년 내에는 주목할 만한 서비스가 탄생할 수 있을 것이라는 게 업계의 전망이다.
현재 프리얀잘리 굽타는 자신이 개발한 소스를 GitHub에 오픈소스로 공유해 놓은 상태다. 인종과 국경, 성차를 넘어서 장애와 비장애의 소통까지 원활해진 새로운 기술 시대의 비전을 희망해 보자.
Priyanjali Gupta 링크드인 계정
Priyanjali Gupta 오픈소스 GitHub
이미지 출처 │ Bright Vibes, ainterestingaf