뉴욕에서 활동하는 전설적인 안무가 ‘빌 T. 존스(Bill T. Jones)’와 구글이 독특한 실험을 진행했다. 구글(Google) 크리에이티브 랩에서 진행한 ‘Body, Movement, Language’는 4번의 워크숍을 통해 AI 기술이 예술에 어떻게 적용될 수 있는지 실험한다.
이 실험에서 사용되는 핵심 기술은 ‘포즈넷(Posenet)’이다. 포즈넷은 행동 인식 AI 기술로 별다른 센서 없이 카메라를 통해 대상의 자세를 인식하는 기술이며 머신러닝이 적용되어 더욱더 정확성을 높이고 있다. 구글은 이 기술을 작년 무브 미러(MOVE MIRROR)라는 AI 익스페리먼츠(AI Experiments)를 통해 사람에게 소개했다.
이 실험은 오직 빌 T. 존스에 초점을 맞춰 그가 이끄는 방향으로 프로젝트가 진행된다. 빌 T. 존스라는 예술가와 행동 인식 AI 기술의 결합이 어떤 결과를 낼지는 프로젝트 기획자들도 의문을 가졌는데, 그가 기술에서 떠오르는 영감은 현장 개발자를 통해 즉각적으로 구현된다.
안무 중간에 대사를 하는 빌 T. 존스의 안무 특징은 포즈넷을 통해 대사들이 화면에 펼쳐지며 그를 따라간다. 이후에 진행될 워크숍도 행동 인식을 기반으로 자세에 따라 화면에 표현되거나 음악이 바뀌는 등 다양하게 구현되면서 실험이 진행된다.
워크숍을 통해 구현된 기능은 크게 세 가지다. 자신의 말을 팔을 통해 크기를 조절하는 ‘Hold that Thought’, 문장을 팔의 움직임에 따라오게 하는 ‘Manifesto’, 마지막으로 여러 명의 사람이 서로 점을 빼앗는 ‘The Game’이다. 빌 T. 존스는 이 실험을 통해 사람들이 공간에서 교감하고 자신을 표현하길 바란다고 언급했다. 이 프로젝트의 결과물은 크롬을 통해 일반 사람도 체험할 수 있으며 빌 T. 존스의 대표 솔로 ’21’을 따라 하는 경험도 제공한다.
영상 초반 그는 포즈넷이 사람의 코에 점을 만드는 것을 보고 ‘이것이 의미를 가지게 하려면 어떻게 해야 하는가? 이 점들이 사람을 울릴 수 있는가?’라고 자문한다. 그가 말하는 ‘울림’이란 ‘기술이 사람들에게 예술처럼 감정적 영향을 주는 의미를 가질 수 있는가?’라는 뜻으로 보인다. 그리고 영상 말미에 ‘기술이 미래의 예술에 다양한 용도로 쓰일 것으로 보인다. 하지만 그것이 나를 울릴 수 있는가?’라는 질문으로 이 실험을 마무리한다.
최근 진행된 Google I/O ’19에서 손을 올리는 제스쳐로 음악을 중지시키는 영상은 많은 사람의 감탄을 끌어냈다. 이렇듯 보통 AI 기술은 편의를 위해 사용된다는 인식이 많다. 하지만 기술이 예술과 접목되었을 때 어떤 결과를 만들어낼 수 있을까? 프로젝트에 참여한 개발자는 그가 ‘기술을 통해 무엇을 할 수 있는가?’가 아닌 ‘내가 기술에서 무엇을 원하는가?’라고 한 질문이 이 프로젝트의 중심 주제라 언급했다. 빌 T. 존스가 원한 건 무엇인지 영상을 통해 확인해보자.