AI의 차별에 대한 새로운 관점을 제시한 AI Now Institute의 “Discriminating Systems” 연구

AI 기술의 성차별, 인종차별 문제가 심각한 사회 문제로 부각되고 있다. 실제로 2015년에는 구글 포토 서비스의 자동인식 기능이 흑인의 사진을 고릴라로 표시해 큰 논란이 되었으며, 작년에는 니콘 카메라의 한 AI 소프트웨어가 동양인을 촬영할 때 눈을 깜빡이는 것으로 오인해 더 많은 경고 표시를 나타내는 것으로 드러났다.

성별 간, 인종 간 다양성을 존중하는 방향으로 나아가고 있는 현시대에 이 같은 현상들을 단지 기계적인 결함이라고 넘어갈 수는 없을 터. AI 기술이 우리의 삶과 생활에 더욱 직접적으로 영향을 끼치고 있기 때문에 문제는 더욱 심각하다. 이런 현상들에 대해 작년 7월 과학학술지 네이처(Nature)는 AI의 딥러닝 학습에 사용되는 데이터가 인간들의 불평등을 그대로 기계에 옮겨놓고 있다고 설명했는데, 최근 뉴욕대(New York University)의 AI Now 연구소 (AI Now Institute)는 한 보고서를 통해 이런 차별이 AI 산업의 불평등에서 기인했을 수 있다는 관점을 제시했다.

AI Now 연구소가 지난 16일(현지 시각)에 발표한 “디스크리미네이팅 시스템즈(Discriminating Systems)” 보고서는 지금의 AI 산업이 백인 이성애자 남성들에 의해 독점되어 있다고 밝혔다. 이들에 따르면 현재 구글(Google)의 AI 인력 중 여성이 차지하는 비율은 약 10%이며, 페이스북(Facebook)에서도 약 15% 정도에 불과한 것으로 드러났다. 더욱 심각한 것은 인종의 비율이다. 구글, 페이스북 등 주요 기업들에서조차 AI 인력 중 흑인의 비율은 약 2.5~4% 정도인 것으로 나타났기 때문.

AI나우 연구소는 이 같은 집단들이 인간을 대표해 AI를 교육하는 것에 대한 우려를 나타냈다. 단일 특성 집단이 AI를 개발할 경우 다양한 성별과 인종에 대한 AI의 인식이 편향될 수 있기 때문. 실제로 150편에 달하는 과거 연구 결과들을 통합 분석한 결과, 편향된 AI 기술이 과거의 성/인종 차별 패턴을 그대로 나타내고 있다는 것이 발견되었다.

어찌 됐건 AI의 차별이 인간의 오염된 산업과 데이터에서 비롯되었다는 점은 분명한 사실인 듯하다. AI 나우 연구소의 공동 대표인 케이트 크로퍼드(Kate Crawford)는 “AI 기술이 안전할 뿐만 아니라 공정한지에도 관심을 기울여야 한다”고 강조했다. 다행히 지난 8일, 사태의 중요성을 인식한 유럽연합(EU)이 AI 개발에 대한 윤리적 지침을 발표하며 “다양성, 비차별성과 공정성”을 하나의 충족 요건으로 제시한 바 있다. 하지만 이 지침에 앞서 기억해야 할 것은 인간 사회의 차별이 없어져야 AI의 차별도 해결할 수 있다는 것. 죄 없는 AI를 탓하기 전에 당장 우리 스스로의 모습부터 되돌아봐야 할 일이다.

“Discriminating Systems” 전문 보기

RECOMMENDED POST