메뉴 건너뛰기

close

 
고위험인공지능
 고위험인공지능
ⓒ 참여연대

관련사진보기

 
1. 고위험 인공지능
OECD는 인공지능을 "다양한 수준의 자율성을 가지고 작동하도록 설계되었으며 명시적 또는 암묵적 목표를 위해 물리적 또는 가상 환경에 영향을 미치는 예측, 추천 또는 결정과 같은 결과물을 생성할 수 있는 기계 기반 시스템"이라고 정의하고 있다. 고위험 인공지능은 인간의 생명, 신체의 안전 및 기본권의 보호에 중대한 영향을 미칠 수 있는 인공지능을 의미한다.

2. 유럽연합인공지능법 'AI Act'
세계 최초의 포괄적 인공지능법으로 위험 수준을 평가하고 네 가지 범주로 분류하여 차등적으로 의무와 책임을 부과하고 있다. 고위험군에 속한 인공지능에는 엄격한 요구사항을 부여했으며, ▲ 인간 잠재의식이나 의사결정 능력 손상 ▲ 취약성 활용 ▲ 사회적 평가 또는 분류, 불공정한 처우에 활용 ▲ 실시간 원격 생체인식 및 식별 등 인공지능 활동은 금지하고 있다.

챗GPT의 등장으로 인공지능, 즉 AI에 대한 대중의 관심이 폭발하면서 이를 활용한 서비스가 다양하게 제공되고 있다. 그러나 AI가 주는 편익에 가려 우리가 놓치고 있는 것은 없을까?

AI가 탑재된 로봇이 일으킨 안전사고를 비롯해 여성·장애인 등 인권 취약 계층에 대한 차별, 알고리즘 조작, 자원 낭비로 인한 환경 문제 등에 대해 생각해 본 적이 있는가? 제대로 된 검증 없이 공공기관과 민간 기업에 퍼져가고 있는 AI 채용 도구의 예비 취업자 차별, 네이버쇼핑이나 카카오택시가 자회사 이익을 위해 알고리즘을 조작하기도 하는 것이 우리가 직면한 현실이기도 하다. 기술은 하루가 다르게 발전하지만, 규범이 이를 따라잡기는 역부족이다.

2020년 유엔사무총장은 인공지능 사용에 대한 책임성을 완전하게 보장하는 적절한 법률 체계를 마련해 이를 관리·감독하고 인공지능의 피해에 대한 구제 수단을 구비할 것을 각국에 권고했다. 이후 2021년 유엔인권최고대표는 〈디지털 시대 프라이버시권 보고서〉에서 공공과 민간 인공지능 사용이 인권에 미칠 부정적인 영향을 방지하고 완화하는 인권 실사와 피해자를 구제하는 규제 체계의 도입을 요구했다. 2024년 유엔총회에서는 인공지능의 안전한 사용에 관한 국제적인 합의를 결의했다.

각국도 규제 마련에 적극적으로 나서고 있다. 유럽연합은 2024년 3월 14일 세계 최초로 구속력 있는 포괄적 AI 규제법을 통과시켰다. 유럽연합인공지능법인 'AI Act'는 인공지능 위험도를 네 가지 범주로 분류하고 적정성 평가, 인증, 인권영향평가 등을 의무화했다. 개인정보, 소비자 보호나 차별 금지 및 성평등에 관한 기존 정책과 법 체계를 침범하지 않는다는 원칙도 명시하고 있다.

주요 빅테크 기업의 본산지이기도 한 미국도 2023년 바이든 대통령이 발표한 AI 행정명령에 이어 2024년 3월 28일 미국 백악관 예산관리국(OMB)이 업무에 인공지능을 활용하는 정부 기관에 인공지능 위험 방지 장치를 의무화하는 규칙을 발표하는 등 규제책을 마련하고 있다.

한국은 어떤가? 대통령이 나서 "챗GPT를 적극 활용하라"며 특정 회사 제품까지 지목하고, 공공기관에서는 제대로 된 검증이나 사회적 논의 과정도 없이 도입을 서두르고 있는 형국이다. 최근 개인정보보호위원회 조사에서는 챗GPT가 학습한 데이터에 주민등록번호와 여권번호 등 민감한 개인정보가 포함되었을 수 있다는 사실이 드러나기도 하였다.

2023년부터 과학기술정보통신부와 국회가 추진해 온 인공지능법은 인공지능 위험 규제를 오히려 완화하는 '우선 허용, 사후 규제' 규정으로 시민사회의 질타를 받아왔다. 용납할 수 없는 인공지능의 위험을 전혀 금지하지 않고, 고위험 규제는 기업 자율에 맡겨두었을 뿐 아니라 처벌 규정도 없다. 인공지능에 의해 인권이 침해되는 사람들의 권리를 구제하는 방안 또한 포함되지 않았다. 이에 국가인권위원회는 인권영향평가, 권리 구제 절차 등 실효성 있는 방안을 마련하라는 의견을 표명하기도 했다.

기업들은 AI 산업 경쟁에서 밀린다며 인공지능 규제를 반대하고 있다. 하지만 문제를 확인할 때는 이미 너무 큰 대가를 치른 후일 것이다. 인권과 안전이라는 가치를 희생하고 얻은 성장, 산업 부흥이 과연 우리가 바라는 것인가? 우리 사회가 용납할 수 없는 인공지능을 정의하고, 위험이 큰 인공지능에는 사전 평가와 사후 대책 등을 마련해야 한다.

덧붙이는 글 | 글 이지은 공익법센터 활동가. 이 글은 참여연대 소식지 〈월간참여사회〉 2024년 5월호에 실립니다. 참여연대 회원가입 02-723-4251


태그:#인공지능, #고위험인공지능, #인공지능법, #AI, #챗GPT
댓글

참여연대가 1995년부터 발행한 시민사회 정론지입니다. 올바른 시민사회 여론 형성에 기여하기 위해 노력하고 있습니다.


독자의견

연도별 콘텐츠 보기