AI 자율무기 확산으로 커지는 ‘책임 공백’…국제 규범 논의 본격화
“의미 있는 인간 통제” 원칙 강화 필요…대한적십자사, 국제사회와 협력 강조

[출처=대한적십자사]
[출처=대한적십자사]

[전국뉴스=하장호 기자] 대한적십자사(회장 직무대행 김홍국)는 지난 21일 대한국제법학회, 송상현국제정의평화인권재단과 공동으로 ‘제44회 국제인도법 세미나’를 개최하고, 인공지능(AI) 기술이 전쟁 양상에 미치는 영향과 국제인도법의 대응 방향을 심도 있게 논의했다.

이번 세미나는 빠르게 확산되는 AI 기반 자율무기체계(Autonomous Weapon Systems)의 위험성과 규범적 과제를 점검하기 위해 마련됐다. 

참석 전문가들은 AI가 전장에서 민간인과 전투원을 정확히 구별하지 못하는 사례가 증가하고 있다며, 기술적 한계가 민간인 피해로 직결될 가능성을 경고했다. 일부 분쟁 지역에서는 AI 무기가 민간인을 오인해 공격한 사례가 보고된 점도 언급됐다.

또한 AI 무기 확산 속도에 비해 국제 규범은 여전히 초기 단계에 머물러 있어 ‘책임 공백(responsibility gap)’ 문제가 커지고 있다고 지적했다. 

발표자들은 과도한 민간인 피해를 막기 위해서는 ‘의미 있는 인간 통제(meaningful human control)’ 원칙 하에 투명성과 책임성을 강화하는 새로운 규범 정립이 필요하다고 강조했다.

박은영 대한적십자사 인도법연구소장은 “AI의 군사적 활용이 거세지는 만큼 민간인 보호를 강화할 국제 규범 정비가 시급하다”며 “대한적십자사는 국제사회와 협력해 책임 있는 AI 무기 규율 체계 구축을 지속적으로 지원하겠다”고 밝혔다.

한편 대한적십자사는 1973년부터 국제인도법 세미나를 통해 국내 인식 확산에 노력해왔으며, 최근에는 송상현국제정의평화인권재단과 함께 전쟁 범죄·반인도적 범죄 등 국제형사법 분야로 논의를 확대하고 있다.

대한적십자사는 21일 ‘제44회 국제인도법 세미나’를 열고 AI 자율무기 확산으로 커지는 민간인 보호 문제를 집중 논의했다. 

전문가들은 최근 분쟁지에서 AI 무기가 민간인을 오인해 공격한 사례를 지적하며 책임 공백과 기술 한계를 우려했다. 특히 ‘의미 있는 인간 통제’ 원칙을 중심으로 국제 규범을 강화해야 한다는 의견이 제시됐다. 

대한적십자사는 국제사회와 협력해 책임 있는 AI 무기 규율 체계 구축을 지원하겠다고 밝혔다.

저작권자 © 전국뉴스 무단전재 및 재배포 금지