업계기사

미국 법집행기관, 커져가는 AI 역량 속 신중한 도입

작성자
marketing
작성일
2025-06-09 11:48
조회
40

작성자: Anthony Kimery 보도일자: 2025년 6월 3일
출처: Biometricupdate.com

인공지능(AI)은 더 이상 미국 연방 법집행기관에게 먼 미래의 기술이 아니다. AI는 이제 빠르게 성숙해가는 역량으로, 수사, 운영 절차, 내부 교육 시스템에 점차 신중하게 통합되고 있다. 연방수사국(FBI), 교통안전청(TSA), 해군범죄수사국(NCIS) 등 주요 기관 관계자들은 머신러닝, 자동화, 대규모 언어모델을 포함한 AI가 가장 어렵고 데이터 집약적인 과제를 어떻게 새롭게 접근하게 하는지를 점차 공개적으로 논의하고 있다.

이러한 흐름은 메릴랜드 베데스다에서 개최된 미국 AFCEA(군통신전자협회) 국제지부 주최의 법집행 및 공공안전 프리뷰 행사에서 더욱 분명해졌다. 이 자리에서 각 기관 대표들은 AI 도입의 기대와 위험성을 함께 언급했다.

FBI의 경우 현재 AI 역량의 뿌리는 2013년 보스턴 마라톤 폭탄 테러로 거슬러 올라간다. 당시 수사팀은 방대한 양의 공공 및 민간 CCTV 영상을 분석해야 했지만, 이를 신속히 처리할 기술적 수단이 부족했다. FBI 운영기술부의 수석 기술 고문인 키어스텐 실리로(Kiersten Schiliro)는 이를 계기로 대량의 영상 데이터를 컴퓨터 비전을 통해 분류하고 분석할 수 있는 멀티미디어 처리 프레임워크를 개발하게 되었다고 설명했다.

이 시스템 번호판 인식, 이미지 내 텍스트 추출, 특정 물체 감지, 심지어 얼굴 추적까지 가능하다. 단, 이는 신원 확인이 아닌 대규모 데이터셋 내 이동 경로 분석을 위한 용도다. 과거에는 완전한 분석에 거의 1년이 걸렸던 작업이, 이러한 고도화된 도구 덕분에 이제는 약 이틀 만에 처리된다.

실리로는 “이러한 컴퓨터 비전 도구는 우리가 보유한 가장 성숙한 AI 활용 사례 중 하나”라며 “이 도구들이 정말 큰 역할을 했고 앞으로도 계속 발전할 것”이라고 말했다. 이는 작전 운영 측면에서도 중대한 의미를 가진다. 감시가 일상화된 시대에 AI 기반 선별 도구는 실질적인 정보(Intelligence)를 추출하는 데 필수적인 수단이 되었다.

FBI의 AI 활용은 영상 분석에만 그치지 않는다. 범죄수사국(Criminal Investigation Division)은 아동 착취 대응에도 AI를 활용하고 있으며, 이 영역에서는 피해자 식별이 특히 어렵다. 어린이는 차량등록부(DMV)나 FBI의 차세대 신원 확인 시스템(NGID)과 같은 공식 데이터베이스에 등록되어 있지 않은 경우가 많기 때문이다. 이러한 경우, AI 기반 안면 인식 기술은 핵심 도구가 된다. 실리로는 “이 기술은 피해 아동의 생명을 구하는 데 사용되고 있다”고 강조했다.

이러한 도구들이 실용적이긴 하지만, FBI는 매우 제한적이고 엄격하게 통제된 환경에서만 이들을 사용하고 있다. FBI가 수행하는 모든 AI 배치는 개인정보 영향 평가와 AI 윤리 위원회의 윤리적 검토를 거쳐야 한다. 실리로는 “우리는 매우 신중하게 접근해 왔습니다. 이런 일은 한 번에 제대로 해야 하니까요.”라고 말했다. FBI는 AI 초기 도입을 고위험·고우선순위 분야에 집중함으로써 디지털 전환에 흔히 수반되는 조직 내부 저항을 일부 회피할 수 있었다.

TSA(미국 교통안전청)에서는 AI 도입이 약간 다른 형태를 띠고 있다. 이 기관은 운영 효율성과 직원 역량 강화를 중심으로 AI를 활용하고 있다. 크리스틴 루이즈(Kristin Ruiz, TSA 부국장 겸 부최고정보책임자)는 TSA가 국토안보부 산하의 광범위한 과학기술 포트폴리오를 활용하고 있다고 강조했다. 외부 인력이나 벤더에 의존하기보다는, 기존 IT 인력을 대상으로 신기술 사용에 대한 교육을 진행하며 AI를 조직의 역량 강화 전략 일부로 편입시키고 있다.

핵심 내부 프로젝트 중 하나는 ‘TSA Answer Engine’으로, AI 기반 자원으로서 현장 직원에게 운영 정책 및 절차에 대한 정확한 답변을 신속하게 제공한다. 이 엔진은 정보 흐름의 병목현상을 제거함으로써 지역 사무소 간의 민첩성과 일관성을 높이는 것을 목표로 한다.

TSA의 혁신 연구소(Innovation Lab)는 AI가 실제로 적용되는 현장이다. 한 프로젝트에서는 가상 현실 홀로그램과 생성형 AI(예: ChatGPT)를 결합하여 TSA 요원 교육을 위한 예측 불가능한 승객 대응 시나리오를 시연했다. AI 응답의 동적인 특성 덕분에 교육 시나리오에 변동성이 더해져, 요원들이 실제 상황에 보다 유연하게 대응하는 자신감을 기를 수 있게 되었다. 루이즈는 “같은 시나리오를 반복해도 각 요원은 다르게 대응하고 그에 따라 다른 반응을 얻게 된다”고 설명했다. 이러한 방식은 요원의 대응력 향상뿐만 아니라, AI가 미션 중심 환경에서 체험 학습을 지원할 수 있다는 점을 보여주었다.

훈련과 운영 외에도, TSA는 공항에서 얼굴 인식 및 생체 인식 기술 사용을 지속적으로 확대하고 있다. 이 도구들은 보안 검색대 및 입국 심사 과정에서 신원 확인 절차에 깊이 통합되어 있으며, TSA는 법무부 및 국무부와 협력하여 부처 간 데이터 통합을 개선하고 있다. 현재 TSA의 AI 시스템은 연방 감시 및 신원 판별 인프라의 최전선에서 작동하고 있으며, 시민의 자유와 투명성에 대한 지속적인 의문을 불러일으키고 있다.

해군 범죄수사국(NCIS)의 경우, AI는 아직 탐색 단계에 있다. 해군 산하에서 법 집행 및 방첩 활동을 지원하는 NCIS는 “작게 시작하고 있다”고 작전기술 및 사이버혁신국의 임시 국장 대행인 리처드 던우디(Richard Dunwoodie)는 전했다. NCIS는 업무 운영 및 현장 수사를 위한 제한된 규모의 파일럿 프로젝트를 시작했으며, 차량 인식부터 정책 탐색에 이르기까지 다양한 작업에 AI를 활용하고 있다.

흥미롭게도 던우디는 NCIS에서 AI가 꽤 오랜 시간 동안 도구로 활용되어 왔음을 강조했습니다 – 비록 그것이 ‘AI’라고 명시되지는 않았지만 말이죠. 범죄 수사에서의 데이터 집계부터, ‘플리트 위크(Fleet Week)’나 에어쇼 같은 대규모 행사 중 자동화된 감시 작업에 이르기까지, 머신러닝은 조용히 업무 흐름에 영향을 미쳐왔습니다. 그러나 이제 상업용 AI 도구에 대한 인식이 높아지고, 국방부 산하 디지털·AI 최고책임자 사무국의 지원을 받으면서 NCIS는 AI의 활용을 공식화하고 확대하고자 합니다.

NCIS와 다른 정부 기관들이 직면한 핵심 문제 중 하나는 직원들이 상업용 AI 애플리케이션을 통제 없이 사용하는 것입니다. 일부 직원들은 보고서를 작성하거나 질의를 구성할 때 ChatGPT 같은 도구를 사용하는 것으로 나타났습니다. 던우디는 “이건 문제가 됩니다”라고 말하며, 이로 인해 민감한 지식 격차가 적대 세력에 노출될 수 있는 위험을 지적했습니다. 이는 정부 직원의 상업용 AI 사용에 대한 연방 차원의 정책 일관성 필요성을 보여주는 부분입니다.

기관 전반적으로 공통된 인식은 다음과 같습니다: AI는 정확도, 속도, 확장성을 개선할 기회를 제공하지만, 연방 법 집행 기관에서의 AI 도입은 신중하고 윤리적이며 투명해야 한다는 것입니다. 실리로는 “AI 도구 중 일부는 사람의 검토보다 더 나은 결과를 냅니다. 그러나 우리 모두가 AI를 활용하고 싶어 하더라도, 그것은 공짜가 아니며, 측정 가능한 결과를 도출해야 합니다.”라고 요약했습니다.

AI가 정확성 향상, 효율성 증대 또는 새로운 기능 제공 측면에서 실질적인 이익을 주는지를 따지는 비용-편익 계산이 이제 미국 연방 법 집행 기관 전반에서 AI 도입 및 운영 결정의 핵심이 되고 있다. AI는 단순히 인간보다 문제를 잘 해결하는 것만으로는 부족하며, 법적 검토를 통과하고 대중의 책임 요구를 충족하며, 운영 신뢰성을 갖춰야 한다.

특히 시민 자유 단체와 입법자들이 생체인식 감시, 예측 경찰 활동, 얼굴 인식 시스템을 면밀히 감시함에 따라, 기관들은 AI 사용에 따른 정치적·법적 지뢰밭을 경계하고 있다. 감독 기관들은 이제 고위험 판단을 내리는 알고리즘에 대해 보다 명확한 감사 기록, 윤리적 사용 사례, 그리고 문서화된 정확도 지표를 요구하고 있다.

이러한 도전에도 불구하고, 연방 법 집행 기관들이 AI 도입에서 물러설 조짐은 보이지 않는다. 특히 트럼프 행정부는 프라이버시와 안전에 대한 충분한 고려 없이 정부 전반의 AI 활용을 밀어붙이고 있다고 비판받고 있다. 패러다임 전환은 이미 시작되었다. 아동 착취 피해자를 식별하고, 감시 영상을 신속히 분석하며, 교통 보안 요원을 위한 몰입형 교육을 제공하고, 해군 사법부의 작전 준비태세를 평가하는 데 이르기까지, AI는 연방 경찰 활동의 지형을 바꾸고 있다.

그러나 이러한 기술적 진보에도 불구하고, 기관들이 무엇보다도 배운 가장 중요한 교훈은 하나다. 단순히 AI 도구를 구축하는 것으로는 충분하지 않다는 것이다. 그 도구에 대한 신뢰를 구축해야 한다. 이 신뢰는 단지 성능으로만 얻어지는 것이 아니라, 자유, 프라이버시, 정의에 영향을 미치는 모든 코드 한 줄 한 줄이 윤리적이고 투명하며 책임 있게 관리될 때 비로소 형성되는 것이다.