최근 미국 라스베이거스 트럼프 호텔 앞에서 테슬라(Tesla) 사이버트럭이 폭발한 가운데, 해당 차량의 운전자이자 테러범 매튜 리벨스버거(Matthew Alan Livelsberger)가 범죄에 ChatGPT의 도움을 받은 것으로 밝혀졌다. 발표에 따르면 범인은 ‘탄약의 이동 속도, 폭발물 목표 선정, 폭죽 합법성 여부, 폭발물의 양’ 등을 ChatGPT에 검색했으며, 이는 미국에서 최초로 AI가 개인의 범죄 계획에 사용된 사례. 경찰은 이를 ‘게임 체인저(Game Changer)’라고 표현하기도 했다.
리벨스버거의 테러 동기는 아직 밝혀지지 않았으나, FBI는 “이 사건이 특정 이념 때문이라고 볼만한 정보는 없다. 외상후 스트레스 장애(PTSD)와 다른 문제들로 어려움을 겪고 있던 참전용사가 저지른 비극적 자살 사건”이라고 결론지었다.

한편, 이 사건을 통해 AI가 테러 등 범죄에 사용되는 시작점에 이르렀다는 인식이 확산되고 있다. ChatGPT를 만든 오픈AI는 성명을 통해 “자사 도구가 책임감 있게 사용되도록 노력할 것이며, 해로운 명령을 거부하도록 설계되었다”고 밝혔다. 이전에 그들은 플랫폼이 생화학 무기 개발 등 테러에 활용될 수 있음을 우려하는 자체 윤리 보고서를 발간하기도 했다.
최근 첨단기술을 동원하는 비슷한 범죄 사례로 새해 초 뉴올리언스에서 차량 테러로 14명이 목숨을 앗아간 샴수드-딘 자바르도, 사전에 메타의 스마트 안경을 착용해 범행 장소를 촬영한 것으로 드러났다. AI 기술은 우리의 미래를 바꿀 혁신적 도구이지만, 동시에 인류에게 있어 위협 요소로 작용할 수 있는 ‘양날의 검’임을 최근 범죄 사례를 통해 느낄 수 있다.
이미지 출처 | CBS