[송성수의 과기세] 유럽연합의 인공지능법에 부쳐
부산대 교양교육원 교수·한국과학사학회 회장
EU, 법 마련하는 데 5년 넘게 소요
위험 유형에 따라 차등적 규제 특징
한국 AI 기본법 개괄적…시행 땐 진통
요즘에는 사람들이 모이기만 하면 인공지능(AI)이 화제가 된다. AI만한 대학원생이 없다는 교수도 있고, AI가 교수보다 더 낫다는 학생도 있다. AI를 능숙하게 활용하도록 제대로 공부해야겠다는 사람도 있고, AI가 인간의 일자리를 뺏어간다고 걱정하는 사람도 있다. 일반인공지능(AGI)이 등장하면 인간은 어떻게 될 것인가 하는 의문도 생긴다.
지난 9월 24일 이재명 대통령이 유엔 안전보장이사회의 공개 토의를 주재하면서 화두로 꺼낸 것도 AI였다. 그는 “현재의 AI는 새끼 호랑이와 같다”고 운을 뗀 후 “새끼 호랑이는 우리를 잡아먹을 사나운 맹수가 될 수도 있고 ‘케이팝 데몬 헌터스’에 나오는 사랑스러운 ‘더피’가 될 수도 있다”고 말했다. AI 시대의 빛과 그림자를 포괄하면서 케이팝의 위상을 넌지시 알린 재치 있는 발언이었다.
AI의 규제에 대해서는 유럽연합(EU)이 가장 체계적으로 준비해 왔다. EU는 2018년에 논의를 시작한 후 2020년 〈AI 백서〉를 발간했다. 2021년에는 인공지능법(AI Act)의 초안을 발표했는데, 부속서를 포함해 120쪽이 넘는 분량이었다. 2023년에는 챗GPT의 등장을 반영해 초안을 보완하고 수정하는 작업을 추진했다. EU의 AI법은 2024년 2월 최종적인 합의가 도출되었고 2024년 8월 발표되었다. 올해 8월부터 단계적으로 시행되고 있다. 이처럼 EU가 AI법을 마련하는 데는 5년이 넘는 세월이 소요되었다.
EU의 AI법은 ‘위험기반 접근법’을 채택하는 가운데 AI를 위험의 유형에 따라 차등적으로 규제한다는 특징을 가지고 있다. 그 유형은 허용할 수 없는 위험, 높은 위험, 제한된 위험, 낮은 위험으로 나뉜다. 허용할 수 없는 위험은 전면 금지되고, 높은 위험은 적합성 평가를 받아야 하며, 제한된 위험에는 투명성 의무가 부여되고, 낮은 위험의 경우에는 자발적인 행동강령이 권고된다. 이를 어길 경우에는 상당 액수의 과태료가 부과되는데, 허용할 수 없는 위험에 대한 최대 과태료는 3500만 유로(약 530억 원) 혹은 직전 회계연도의 매출액 7% 중에서 더 높은 금액이다.
허용할 수 없는 위험의 AI에는 ①의도적으로 인간의 의사결정능력을 손상시킬 수 있는 AI, ②특정 집단의 취약점을 악용하는 AI, ③민감한 특성에 기반한 생체인식 분류 시스템, ④사회적 점수 매기기 혹은 개인의 신뢰도 평가에 사용되는 AI, ⑤범죄나 행정 위반을 예측하고 평가하는 데 사용되는 AI, ⑥얼굴인식 데이터베이스를 자동으로 생성하거나 확장하는 AI, ⑦직장이나 교육 분야에서 감정을 추론하는 AI 등이 포함된다. 이런 목록을 보고 있노라면, 우리가 어떤 AI에 대해 경계해야 하는지 혹은 개발하지 말아야 할 AI는 무엇인지에 대해 잘 알 수 있다.
높은 위험의 AI는 인간의 생명과 기본권을 위협할 소지가 있는 것인데, 기본권에는 차별 금지, 표현의 자유, 프라이버시 보호 등이 포함된다. 높은 위험의 AI에는 위험관리 시스템의 구축, 데이터 품질기준의 충족, 기록에 대한 이력의 추적, 사이버 보안의 확보, 인간의 감독 여부 등과 같은 요구사항이 부과된다. 이와 같은 요구사항은 AI라는 기술의 개발에 못지않게 이를 사회적으로 통제하는 방법과 절차가 중요하다는 점을 상기시켜 주고 있다.
제한된 AI는 이미지, 오디오, 비디오 콘텐츠를 생성하거나 조작하는 경우에 해당한다. 제한된 AI를 배포하는 주체는 범죄예방과 같은 예외적 경우를 제외하고는 해당 콘텐츠가 인위적으로 만들어졌다는 점을 투명하게 공개해야 한다. 이와 함께 챗GPT를 비롯한 파운데이션 모델에 대해서는 모델 구조와 훈련 데이터를 요약하여 공개해야 하며, 저작물을 무단으로 활용하지 않았는지 스스로 확인해야 한다는 규정이 추가되어 있다.
EU의 AI법은 규제에 국한된 것이 아니고 AI의 발전을 위한 정책적 지원에 관한 사항도 담고 있다. AI의 개발, 시험, 검증을 위해 규제 샌드박스를 구축할 것을 주문하고 있으며, 중소기업과 스타트업에 대해서는 재정적 지원을 강화하고 인프라 접근성을 향상시킬 것을 요구하고 있다. 또한 법안이 규정한 조건을 충족할 경우에는 높은 위험의 AI를 실제 환경에서 시험하는 것도 가능하다.
우리나라에서는 ‘인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(AI 기본법)’이 2025년 1월에 공포되었고, 내년 1월부터 시행될 예정이다. 우리나라의 AI 기본법은 EU에 이어 세계 두 번째로 제정된 AI 법제라고 선전되고 있지만, 그 내용을 보면 개괄적이라는 인상을 지울 수 없다. 어떤 내용을 담을 것인가에 대한 충분한 논의가 없이 빠른 속도로 마련되었기 때문인데, 그것은 5년 이상의 숙의를 거친 EU의 경우와 크게 대비된다. 시행령과 시행규칙을 만들 때 상당한 진통이 예상된다.