Comment

AI 정책 랩 - 실험, 관찰과 재조정이 요구되는 AI 정책

정책혁신의 진화와 Policy Lab의 등장

정부의 정책혁신 방식은 단절적으로 변화해 온 것이 아니라, 사회 문제의 성격과 행정 환경의 변화에 대응하며 점진적으로 진화해 왔다. 1980~90년대의 신공공관리(New Public Management)는 기업 경영기법을 공공부문에 도입해 효율성과 성과 측정을 강화함으로써 정부 운영을 개선하고자 했다. 이후 2000년대에는 복잡한 공공문제에 대한 대응 필요성이 커지면서, 정부·민간·시민사회가 함께 문제를 정의하고 해결에 참여하는 거버넌스와 협치 모델이 확산되었다. 2010년대에 들어서는 정책이 실제로 ‘작동하는지’를 검증하려는 근거기반 정책, 행동과학, 정책 실험의 중요성이 부각되었으며, 동시에 디지털 전환과 함께 사용자 중심·서비스 중심의 정책 설계 방식이 정책혁신의 핵심 접근으로 자리 잡았다.

이러한 흐름은 각각 정책의 다른 측면을 보완해 왔으나, 개별적으로는 복잡하고 불확실성이 높은 문제를 충분히 다루는 데 한계를 드러냈다. 성과 관리는 정책의 결과를 측정했지만 작동 메커니즘을 설명하기에는 부족했고, 협치는 참여를 확대했으나 실행과 학습으로 이어지는 구조를 제도화하지는 못했다. 근거기반 정책과 실험은 효과 검증을 가능하게 했지만, 종종 정책 설계와 서비스 구현 과정과 분리되어 운영되었으며, 사용자 중심 접근 역시 제도적 확산과 책임 구조까지 포괄하지는 못했다(1).

정책 랩(Policy Lab)은 이러한 정책혁신 흐름이 누적되며 등장한 제도적 장치로서, 효율·참여·증거·사용자 중심이라는 서로 다른 혁신 요소를 정책 설계–실행–평가 전 과정에서 동시에 작동시키기 위한 ‘정책 실험 인프라’로 이해할 수 있다. Policy Lab은 정책을 완결된 해법이 아니라 검증이 필요한 가설로 설정하고, 공동설계·프로토타이핑·파일럿·평가를 통해 정책의 실제 작동 조건을 시험하며, 그 결과를 다시 정책과 제도로 환류시키는 구조를 제도화한다.

특히 AI와 디지털 기술의 확산은 정책을 더 이상 문서와 규칙의 문제가 아니라, 실제 공공시스템이 시민의 삶에 지속적으로 개입하는 운영의 문제로 전환시키고 있다. 이 변화는 정책혁신의 각 요소를 분절적으로 적용하는 방식으로는 충분히 대응할 수 없으며, 정책이 실제로 어떻게 작동하는지를 사전에 실험하고 학습할 수 있는 상설적 인프라를 요구한다. 이러한 맥락에서 Policy Lab의 등장은 기존 정책 혁신의 연장선이자, AI·디지털 전환 시대에 정책이 작동하기 위한 다음 단계의 정책혁신 모델로 이해될 수 있다.

(1) 기존 정책혁신 접근들은 각각 정책의 특정 측면을 개선하는 데 기여해 왔으나, 정책 전 과정을 통합적으로 재구성하지는 못했다. [Tackling Policy Challenges Through Public Sector Innovation. OECD] 성과관리 중심의 개혁은 정책의 효율성과 책임성을 강조했으나 복잡한 사회문제를 단순 지표로 환원하는 한계를 노출했고 [New public management and innovation policy: A systematic literature review], 거버넌스와 협치 모델은 참여의 폭을 넓혔으나 실행과 학습으로 이어지는 구조를 제도화하는 데에는 어려움이 있었다 [Co-design is not enough: reflections on creative collaborative public sector innovation to deliver net zero policy outcomes in Scotland]. 근거기반 정책과 행동과학은 정책 효과를 실증적으로 검증하는 도구를 제공했지만, 이는 종종 정책 설계 및 서비스 구현 과정과 분리되어 운영되었으며 [Tackling Policy Challenges Through Public Sector Innovation. OECD], 사용자 중심·디자인 접근은 정책을 시민 경험의 관점에서 재구성하는 데 기여했음에도 제도적 확산과 책임 구조까지 포괄하지는 못했다[Tab the lab: A typology of public sector innovation labs].  

AI와 공공 정책/서비스의 만남

AI가 만들어내는 정책 혁신의 성격

인공지능(AI)은 종종 더 빠르고 정교한 정책 수단으로 설명된다. 실제로 정부는 AI를 통해 복지 사각지대를 정밀하게 찾아내고, 행정 업무를 자동화하며, 정책 효과를 예측할 수 있을 것으로 기대한다. 그러나 AI가 공공정책에 도입되는 순간, 정책의 성격은 단순한 효율성 향상을 넘어 근본적으로 달라진다. 전통적으로 정책은 법·제도·지침이라는 형태로 설계되고, 집행 이후 성과 평가와 사후 조정을 통해 관리되어 왔다. 정책이 기대한 효과를 내지 못하더라도, 제도 개정이나 예산 조정, 지침 변경을 통해 점진적인 개선이 가능했다. 이 과정에서 정책은 기본적으로 인간의 판단과 재량이 중심이 되는 영역으로 남아 있었다.

그러나 AI는 정책을 문서나 규칙의 문제에 머물게 두지 않는다. 알고리즘은 복지 대상자를 선별하고, 자동화된 판단은 행정 절차의 우선순위를 결정하며, 데이터 기반 예측은 정책 자원의 배분 방향에 직접 개입한다. 그 결과 정책은 더 이상 한 번의 결정이 아니라, 지속적으로 작동하며 판단을 반복하는 운영 시스템으로 전환된다. 이 변화는 정책 실패의 성격과 책임 구조, 그리고 시민이 정책을 경험하는 방식 자체를 재구성한다.

실험없는 AI 정책은 왜 위험한가? 

AI 정책의 가장 큰 특징은 실패의 비용이 크고 비가역적이라는 점이다. 알고리즘 기반 정책은 빠르게 확산되며, 설계 단계에서의 작은 오류나 데이터 편향은 단기간에 대규모 시민 피해로 이어질 수 있다. 사후적으로 문제를 발견하더라도, 이미 자동화된 시스템과 조직 구조에 깊게 결합된 정책을 중단하거나 수정하는 데에는 상당한 정치적·제도적 비용이 발생한다. 사후적 성과 관리나 보완 조치만으로는 발생한 피해를 되돌리기 어렵다는 점은 여러 연구에서 반복적으로 지적되어 왔다. 책임 문제는 더욱 복잡하다. AI 정책에서는 문제가 발생했을 때 책임이 정책 담당자, 개발사, 운영 부서, 데이터 제공자 사이에 분산되기 쉽다. 이는 책임이 사라진다는 의미가 아니라, 오히려 “누가 책임지는가”라는 질문이 명확히 답변되지 않는 상황을 만들어 정책결정자의 정치적 부담을 증폭시킨다. 시민의 관점에서 책임 주체가 불분명할수록, 그 책임은 결국 정책 도입을 승인한 정치·행정 책임자에게 귀속된다.

또 하나 간과되기 쉬운 위험은 시민 신뢰의 급격한 붕괴 가능성이다. AI 기반 정책은 작동 방식이 불투명한 경우가 많고, 설명되지 않는 결정이나 차별 논란을 낳기 쉽다. 이러한 논란은 개별 정책에 대한 불만을 넘어, 정부의 디지털 전환 전반에 대한 불신으로 확산되는 경향을 보인다. 한 번 훼손된 신뢰는 사후 설명이나 홍보만으로 회복하기 어렵다.

그럼에도 불구하고 많은 AI 정책은 여전히 문서 중심의 사전 검토, 전문가 자문, 제한적인 파일럿, 사후 평가 등 전통적인 정책 설계·운영 방식에 크게 의존하고 있다. 이러한 접근은 AI 정책이 내포한 위험을 체계적으로 관리하기에는 충분하지 않다.

정책 랩(Policy Lab): 정책을 ‘가설’로 다루는 실험 인프라 

이러한 문제의식은 AI 정책이 한 번의 결단으로 완성될 수 없다는 경험적 인식에서 출발한다. 이에 따라 여러 국가와 국제기구는 정책을 완결된 결론이 아니라 검증이 필요한 가설로 설정하고, 이를 실제 환경에서 시험·학습·조정하는 상설적 인프라인 ‘정책 랩(Policy Lab)’에 주목하고 있다.

정책 랩의 근본적인 차별점은 정책을 일회적 결정이 아니라 명시적인 가설로 다룬다는 점이다. “이 정책은 효과가 있을 것이다”라는 가정을 출발점으로 삼아, 정책 설계–실행–평가 전 과정을 하나의 학습 루프로 통합한다. 공동설계, 프로토타이핑, 소규모 파일럿을 통해 정책의 실제 작동 여부를 제한된 조건에서 검증하고, 그 결과를 다시 제도 개선으로 환류시키는 구조를 제도화한다.

'성능'을 넘어 '작동 조건'을 검증하는 완충지대(Buffer)

정책 랩의 핵심은 단순히 더 좋은 정책 아이디어를 발굴하는 데 있지 않다. 핵심은 정책이 현장에서 어떤 조건에서 작동하고, 어디에서 실패하는지를 사전에 드러내는 것이다. 특히 AI 정책 랩은 공공정책에 AI를 전면 도입하기 이전에 반드시 거쳐야 할 완충지대(buffer)로 기능한다 (표.1 참조).

이를 통해 정책결정자는 AI 정책을 ‘되돌릴 수 없는 단판의 혁신’이 아니라, 실험 결과에 따라 수정·보완·중단이 가능한 단계적이고 가역적인 선택으로 다룰 수 있다. AI 정책 랩은 정책 실패를 용인하는 조직이 아니라, 실험과 관찰, 평가와 학습을 통해 정책 실패의 비용을 사전에 파악하고 관리함으로써 전체 AI 정책 시스템의 회복탄력성을 높이는 장치다.

AI 시대의 정책은 도입 이전과 초기 단계에서부터 다음과 같은 질문에 답할 수 있어야 한다.
“이 정책은 어떤 조건에서만 작동하는가?”,
“어떤 집단에 예상치 못한 영향을 미치는가?”,
“문제가 발생했을 때 어디서 어떻게 수정하거나 중단할 수 있는가?”

이 질문들은 문서 검토나 전문가 자문만으로는 해결될 수 없으며, 실제 정책 환경에서의 실험과 학습을 전제로 한다. 따라서 AI 정책에는 일회성 파일럿이나 임시 태스크포스가 아니라, 상시적으로 정책을 시험하고 증거를 축적하며, 그 결과를 제도와 표준으로 환류시키는 실험 인프라가 필요하다. AI 정책 랩은 바로 이 역할을 수행하는 핵심 기반이라 할 수 있다. AI 정책을 기술 도입의 문제가 아니라 책임 있는 운영과 지속적 조정의 문제로 다룰 수 있게 만든다. 

목적이 아닌 수단으로서의 실험과 참여

정책 랩에서 강조하는 실험과 시민 참여는 그 자체가 목적이 아니다. 참여는 정당성 확보를 넘어, 정책 설계의 핵심 변수를 발견하기 위한 수단이며, 실험은 성공 사례를 홍보하기 위한 장치가 아니라 정책의 확산(Scale-up) 또는 중단(Stop)을 판단하기 위한 근거 생산 과정이다. 이러한 구조 속에서 정책 실패는 정치적 부담이나 행정적 오류로 남지 않고, 다음 정책 설계를 위한 학습 자산으로 전환된다. 결과적으로 정책 랩은 공동 작업 공간, 전문 방법론 세트, 소규모 실험 환경을 결합한 일종의 정부 혁신 운영체제(OS)로서, 기존의 파편화된 정책 혁신 시도들을 질적으로 통합한다 (표.2 참조).

AI 정책 실험의 제도화 - 해외사례 

이러한 접근은 이미 여러 국가에서 AI 거버넌스의 핵심 요소로 자리 잡고 있다. OECD는 AI를 규제 대상이나 산업 성장 동력으로만 보지 않고, 정부 스스로가 개발자이자 사용자로서 책임을 져야 할 기술로 규정한다. 이 관점에서 AI 거버넌스의 핵심 과제는 원칙 수립이 아니라, 불확실성과 위험을 관리하면서 신뢰를 축적하는 실행 능력이다. 「Governing with Artificial Intelligence」는 다수의 국가 사례를 분석하며, 공공부문의 AI 활용이 파일럿 단계에 머무르는 주요 원인으로 실험 결과를 정책·제도로 환류하는 구조의 부재를 지적한다. 이 공백을 메우는 장치로서 Policy Lab·Innovation Lab이 AI 활용의 테스트베드이자 학습 공간으로 등장하고 있음을 명확히 한다.

OECD STI Outlook 2025 역시 불확실성이 높은 기술 전환기에서 정부의 민첩성(agility)을 확보하기 위한 핵심 수단으로 policy experimentation을 강조하며, 이를 가능하게 하는 제도적 환경으로 innovation policy labs와 regulatory sandboxes를 제시한다. 중요한 점은, 이러한 실험이 일회적 프로젝트가 아니라 정책 프레임과 조직 운영에 내재화되어야 한다는 점이다. 즉, AI Policy Lab은 ‘선도국의 선택적 실험’이 아니라, AI 거버넌스를 실행하려는 정부가 갖춰야 할 기본 인프라로 위치한다.

영국의 Policy Lab법무부(MoJ)는 정책을 문서로 완성하기보다, 사용자 경험을 기반으로 한 프로토타입과 파일럿을 통해 초기 단계에서 정책의 작동 가능성을 검증해 왔다. 이를 통해 정책이 현장에서 어떻게 받아들여지는지, 어떤 지점에서 병목이나 부작용이 발생하는지를 사전에 드러낼 수 있었다. EU 정책 랩(EU Policy Lab)디자인, 미래예측, 행동통찰을 결합해 AI와 디지털 정책이 사회에 미칠 영향을 실험적으로 탐색하는 공간으로 기능하고 있다. 핀란드의 Sitra는 AI를 단기 효율성 도구가 아니라 사회 시스템 전환의 요소로 다루며, 실험을 통해 장기적 정책 옵션을 검증해 왔다.

노르웨이 감사원 산하 혁신 랩은 AI가 행정과 감사, 책임 구조에 미치는 영향을 실험하며, AI를 ‘혁신’이 아니라 통제와 책임의 문제로 다루는 접근을 보여준다. Open Data Policy Lab과 네덜란드의 Waag Future Lab은 알고리즘 투명성, 데이터 거버넌스, 시민 참여를 실제 정책 도구로 구현하는 데 초점을 맞추고 있다.

OECD가 언급한 독일 연방노동사회부(BMAS) 산하 Policy Lab Digital, Work & Society AI와 디지털 전환이 노동·사회정책에 미치는 영향을 부처 내부에서 직접 실험·검증하는 사례다. 이는 AI Policy Lab이 외부 자문기구나 연구 프로젝트가 아니라, 정책 결정과 가까운 위치에서 운영될 때 가장 큰 효과를 낸다는 점을 보여준다. 핀란드의 AuroraAI 및 Sitra의 실험 역시 AI를 기술 정책이 아니라 서비스 접근성·사회적 영향의 문제로 다루며, 실험을 통해 가능성과 한계를 학습 자산으로 축적한다.

이들 사례의 공통점은 분명하다. AI 정책 랩의 성과는 AI를 도입했다는 사실이 아니라, AI 정책을 시험하고 조정할 수 있는 능력을 제도화했다는 점이다.

AI 정책 실험의 공백 – 한국의 현재와 시사점

해외 사례가 보여주듯, AI 정책 랩은 AI 거버넌스를 선언과 원칙의 수준에 머무르게 하지 않고, 실제 정책 운영의 영역으로 끌어내리는 핵심 인프라로 기능하고 있다. 이에 비해 한국의 AI 정책 환경은 전략과 제도 구축에서는 빠르게 진전해 왔지만, 정책을 실험하고 조정하는 구조는 상대적으로 취약한 상태에 머물러 있다.

한국에서도 정책 혁신을 위한 정책 랩 시도 자체는 존재해 왔다. 행정혁신, 디자인 기반 정책 설계, 시민 참여형 정책 실험 등은 과거 여러 연구기관과 정부 조직을 중심으로 제한적으로 시도된 바 있다. 그러나 이러한 시도는 대부분 개별 정책 영역이나 일반 행정 혁신에 국한되었으며, AI 정책과 같이 고위험·고불확실성을 지닌 영역에는 본격적으로 적용되지 못했다는 한계를 가진다.

최근 한국은 국가 AI 전략, AI 행동계획, AI 기본법 제정 등을 통해 AI 정책의 방향성과 원칙을 비교적 명확히 설정하였다. 그러나 이 체계는 주로 “무엇을 추진할 것인가”와 “어떤 기준을 지켜야 하는가”에 초점을 두고 있으며, AI 정책이 실제 현장에서 어떻게 작동하는지 시험하고, 문제를 조기에 발견·조정하는 제도적 장치는 충분히 갖추지 못하고 있다. 그 결과 AI 정책은 여전히 문서 중심의 설계, 제한적인 파일럿, 사후 평가에 의존하는 경향을 보인다. 이러한 구조는 특히 복지, 노동, 행정 자동화, 치안 등 시민의 권리와 일상에 직접적인 영향을 미치는 영역에서 위험을 증폭시킬 수 있다. AI 기반 정책의 오류와 편향은 사후적으로 수정하기 어렵고, 책임 소재가 불분명할수록 정치적·사회적 비용은 커진다. 그럼에도 불구하고 현재 한국의 정책 체계에는 AI 정책을 ‘되돌릴 수 있는 방식’으로 다룰 수 있는 실험 공간이 제도적으로 마련되어 있지 않다.

이 지점에서 AI 정책 랩의 필요성은 분명해진다. AI 정책 랩은 새로운 정책을 하나 더 만드는 조직이 아니라, 이미 존재하는 AI 전략과 법·제도를 실제로 작동하게 만드는 실행 인프라다. 정책을 완결된 해법이 아니라 검증이 필요한 가설로 다루고, 제한된 조건에서 시험한 뒤 확산·중단·수정을 결정할 수 있게 만드는 장치가 없다면, AI 정책은 반복적으로 사회적 갈등과 신뢰 위기를 초래할 가능성이 크다.

한국에서 AI 정책 랩 논의가 중요한 이유는 단순히 해외 사례를 따라가기 위해서가 아니다.AI 정책의 다음 단계는 더 많은 선언이나 투자 계획이 아니라, 정책이 실제로 작동하고 조정될 수 있는 제도적 공간 마련이 필요하기 때문이다. 이 글의 결론은 간단하다. AI 정책은 더 이상 “도입 여부”의 문제가 아니라, “어떻게 책임 있게 운영하고, 언제 멈출 수 있는가”의 문제다. 실험 없는 AI 정책은 혁신이 아니라 위험이며, AI 정책 랩은 그 위험을 관리하기 위한 가장 현실적인 선택지다. 한국의 AI 정책이 성숙 단계로 나아가기 위해서는, 이제 전략과 법제의 다음 단계로서 AI 정책 실험의 제도화를 본격적으로 논의하고 시도해보아야 한다. 

부록 1 - 해외 AI Policy Lab 및 관련 조직 비교 표

부록 2 - 해외 AI 정책 Lab에서 실험해볼 수 있는 시민참여가 중심이되는 AI 정책을 연구하는 정책 연구소

Comment

Comment

“AI 기회 행동 계획” - AI 선도 국가가 되기위한 영국의 야망

2024년 7월에 출범한 영국의 노동당 정부는 2025년 지난 1월 13일 영국 정부의 새로운 포괄적 AI 전략인 “AI 기회 행동 계획 (이하 행동계획)”을 발표하였다. 이 계획은 벤처 투자자이자 영국 고등연구발명원(Advanced Research and Invention Agency)의 의장인 매트 클리포드가 주도하여 수립한 것으로, AI를 통해 성장과 생산성을 향상시키고 영국 시민들에게 실질적인 혜택을 제공하기 위한 50개의 권고사항을 담고 있다. 이 계획은 발표 즉시 영국 정부의 승인을 받았으며, 대부분의 즉각적인 실행 조치는 발표 후 12개월 이내에 이행될 예정이다. 행동 계획은 영국 정부가 AI 혁명을 주도하고 그 흐름의 방향을 만들어 가겠다고 하는 비전을 반영하며, AI 기반에 대한 투자, 공공이 주도하는 AI 활용 전략, AI 수용국이 아닌 AI 개발국으로 영국의 위상에 도달할 것 이라는 세 가지 전략적 방향하에 다양한 실천 계획을 제시하고 있다.  

AI 기반 투자

행동 계획에서 가장 우선적으로 강조한 정책은 AI 컴퓨팅 인프라 구축, 공공 데이터 제공, 인재 수급  계획, 혁신을 강화할 수준의 적절한 규제 환경을 언급하고 있다.  

주권(Sovereign) AI 컴퓨팅 추진

우선 2030년까지 영국의 공공이 직접 소유하고 통제하는 컴퓨팅 파워를 현재의 20배로 확장할 것을 권고하고 있다. 이를 주권 AI 컴퓨팅이라 칭하며, 정부가 직접 할당하고 통제하는 필수 컴퓨팅 자원을 제공하여 AI 연구 및 배포에서 국가적 우선순위에 신속하게 대응할 수 있도록 한다. 이 모델은 국가의 전략적으로 중요한 미션 중심 프로젝트가 우선적으로 AI 컴퓨팅 자원을 활용하도록 지원할 뿐만 아니라, 영국의 학계와 민간기업이 시장을 혼란 시킬만큼의 핵심 서비스에 대해 AI 컴퓨팅 접근성이 보장될 수록 수 있도록 안전망을 구축하는 것을 목표로 한다. 이러한 기반은 점점 더 경쟁적인 글로벌 AI 환경에서 영국의 전략적 독립성을 강화하는 것을 목표로 하는 것이다. 

이를 위해 당장 6개월 내에 영국 정부가 주권 컴퓨팅 인프라를 구축할 수 있는 10개년 투자 계획을 수립해줄 것을 권고하며, 공공 컴퓨팅 생태계가 특정 벤더의 종속성을 피하기 위해 다양한 하드웨어 공급자를 포함할 것도 주문하고 있다. 이와함께 민간분야가 영국 정보기관과 협력을 기반으로 AI 인프라의 지속가능성 및 보안 리스크를 완화할 수 있는 조치를 취할 것, 국내 컴퓨팅 파워로는 부족할 부분을 채울 협력 국가들과 연구자 활용과 컴퓨팅 자원 다양화의 연구를 촉진할 것도 포함하고 있다. 

공공 데이터 전략 

이러한 컴퓨팅 파워와 함께 공공이 직접 주도하는 데이터 전략을 권고한다. AI 기회 행동 계획의 데이터 자산 관리와 접근을 위한 가장 중요한 계획은 국가 및 공공기관이 보유한 데이터를 연구기관 및 기업에 제공하는 ‘국가 데이터 도서관(National Data Library:NDL)’ 설립을 제안하고 있다. 특히 단순 기존 데이터 공개를 넘어, 전략적으로 수집할 데이터 영역을 선정하고 수집, 공유 전략을 설계한다. 최소 5개의 고부가가치 공공 데이터 세트를 식별하여 공개할 예정이며, 이를 위해 반드시 개인정보보호, 윤리, 보안, 품질 보증, 공유, 활용 방안 등을 고려한 데이터 거버넌스 프레임워크를 제공해야한다고 명시하고 있다. 이 계획을 발표한 영국 총리 키어 스타머는 아마도 국민보건서비스(영국의 국립의료서비스)가 보유한 방대한 의료 데이터가 이 국가 데이터 도서관의 후보 데이터가 될 것임을 시사하였다. 

전략적 데이터 수집을 위하여 연구자와 기업가들로부터 NDL에 포함될 전략적 데이터 영역을 제안 받기도하고, 공공뿐 아니라 이런 전략 영역에 대해서는 공동의 목표에 부합하는 민간 기업의 데이터도 등록될 수 있도록하는 방안을 설계한다. 더 나아가 영국 연구혁신청(UK Research and Innovation)과 협력해 연구계를 지원하는 고품질 데이터 셋 창출이 연구 우수성 평가에서 인정받도록 하는 방안을 찾고, 민간이 참여할 수 있는 데이트 셋 창출과 데이터 정제 비즈니스에 대한 시장 형성 방안도 탐구할 것을 요구하고 있다. 


또한 영국의 다양한 공공 문화 기관 (예: BBC, 영국 국립 도서관(브리티쉬 라이브러리), 자연사 박물관, 국가 기록원 등)의 문화 가치가 높고 저작권 문제가 해결된 데이터에 대하여 ‘영국 미디어 자원 학습 데이터 세트’를 구축하여 정부가 국내외 시장에서 수익을 창출할 수 있는 공공 사업의 진행을 권고한다.

인재 수급 전략 

전 세계가 AI 산업 레이스에 뛰어들면서 가장 중요한 과제가 AI 인재를 수급하는 것이다. 행동 계획에서는 1년내에 실행해야할 단기 계획으로 정확한 기술 격차 규모 평가를 구체적이고 최신의 데이터에 기반하여 재실시, 글로벌 빅테크 기업과 맞먹는 내부 헤드헌팅 체계를 구축할 것, 세계적 AI 인재 유치를 위해 이들을 위한 비자 제도 개선, 영국 국가 AI 펠로우십 확대가 포함된다. 장기적으로는 AI 전공 대학 졸업생 숫자 확대와 산업계와 함께하는 교육 과정 개발과 운영, AI 진로로의 다양한 진입 경로 확보, 장학 프로그램 확대, 기존 근로자의 변화 적응을 위한 평생 교육 프로그램의 확대 등을 언급하고 있다.

안전하고 믿을 수 있는 AI 개발을 위한 규제 전략

영국의 거버넌스 접근 방식은 "비례적이고 유연한 규제 접근"을 강조하며, 이는 EU에 견주어 좀더 산업 육성에 촛점을 둔 접근법으로 간주된다. 산업 혁신 친화적 접근 방식을 유지하면서도, 제대로 설계되고 구현된 규제가 안전한 AI 개발과 채택을 촉진할 수 있음을 인정하면서, AI 안전 연구소, 규제 기관의 역할, 그리고 AI 보증 도구에 대한 지속적인 투자에 초점을 맞추는 더 중립적인 접근 방식을 취하고 있다. 즉, 강력한 규제안의 입법 보다는 규제 기관과 보증 도구의 강화를 통한 입법 후 실제 모니터링에 더 많은 노력을 기울이겠다는 의지로 보인다.

영국 규제 기관의 AI 거버넌스 역할

AI 기회  행동 계획은 영국의 기존 규제 기관들이 AI 개발 및 사용을 감독하는 역할을 강화하고 있다. 이 계획은 영국 규제 기관들의 AI 역량을 확장하기 위한 자금 지원을 권고하며, 규제 기관들이 규제하는 조직에서 안전한 AI 배포가 가능하도록 장려하는 것을 규제 기관의 주요 목표로 한다. 정부는 특정 규제 기관들과 협력하여 미래의 AI 역량 요구 사항과 AI 위험을 완화하고 성장을 촉진할 방법을 식별할 것에 동의했으며, 특히 이 계획은 상당한 AI 활동을 하는 규제 기관들이 매년 공개적으로 ‘자신의 부문에서 AI에 의해 주도된 혁신과 성장을 어떻게 가능하게 했는지’에 대한 보고서를 발표할 것을 요구하고  있다. 예를 들어, 자율주행, 드론, 로봇과 같이 물리적 세계와 결합된 AI 제품의 규제적 도전과 성장 잠재력의 지원을 어떻게 해결할 것인지에 관한 지침발표 기한, 샌드박스 라이선스 결정, AI 관련 작업에 할당된 자원 현황 등을 투명한 지표로 보고하여 책임성을 확보하도록 할 것을 주문하고 있다.  

AI 보증(assurance) 생태계 지원

효과적인 AI 거버넌스를 지원하기 위해, 이 계획은 AI 보증 생태계를 지원하여 신뢰와 채택을 높일 것을 권고하고 있다. 여기에는 AI 안전 연구소(AI Safety Institute:AISA)의 ‘시스템적 AI 안전 빠른 지원 프로그램(fast grants program)’ 확장을 포함한 새로운 보증 도구 개발에 상당한 투자를 하고, AI 시스템이 주장한 대로 작동하고 의도한 대로 수행되는지 평가하는 정부 지원 고품질 보증 도구를 구축하는 것이 포함된다. 또한 AI 안전 연구소(AISI)의 지속적인 지원과 성장에 중점을 두어 현재 집중하고 있는 AI 최신 모델의 평가, 기초 안전, 그리고 사회적 회복력 연구를 유지하고 확장할 것을 강조하고 있다. AISI가 제공하는 모델 평가의 결과가 최첨단 모델 규제 방식에 도움이 되는 것을 목표로 해야한다. 

데이터와 텍스트 마이닝을 위한 저작권 예외  

행동 계획에서는 영국 정부가 "영국의 텍스트 및 데이터 마이닝(Text and Data Mining: TDM) 체제를 EU만큼 경쟁력 있도록 개혁할 것"을 권고하며, 지적 재산권에 대한 불확실성이 혁신을 저해하고 있다고 지적하고 있다. 2024년 12월, 정부는 AI와 저작권에 대한 협의를 열어 저작권이 있는 자료를 사용하여 AI 모델을 훈련시키기 위해 영국 저작권법의 기존 데이터 마이닝 예외를 변경하는 것을 포함한 다양한 개혁 옵션을 제시하고 있다. 기본적으로 EU와 흡사한 수준까지의 저작권 데이터의 상업적 목적을 위한 TDM을 허용하는 것이 골자이다(아래 표.1 참조). 이러한 2024년 12월 정부 제안을 빨리 이행할 것을 권고하고 있다.

 AI 활용 전략  

정부 차원의 탐색->시범사업-> 확산의 접근법 

행동 계획에서는 현 노동당 정부의 5대 미션* 달성에 AI 도입이 필수적이라고 주장하고 있다. 정부가 AI의 주요 사용자이자 고객으로서의 역할을 함으로써 보다 안전하고 신뢰있는 AI 산업의 활성이 가능하다고 보고있다. 따라서 영국의 공공 부문이 잠재적인 AI 응용 프로그램을 탐색(Scan)하고, 타당성을 평가하기 위해 파일럿 프로젝트를 시행(Pilot)하며, 성공적인 이니셔티브를 전국적으로 확장(Scale)하도록 장려하는 계획을 제시하고 있다. 정부는 각 미션에 AI 리더를 임명하여 AI가 해결책이 될 수 있는 부분을 식별하고, 초기부터 사용자 요구를 고려할 계획이다. 이러한 접근법은 공공 부문에서의 AI 배포가 효과적이며 공공 가치와 일치하도록 보장하는 것을 목표로 하는데.  이를 통해 시민들에게 더 나은 경험과 결과를 제공하고, 정부의 구매력이 새로운 AI 시장을 형성하고, 영국내 AI 생태계를 강화할 것을 목표로 한다. 이와 함께 공공 서비스 업무 자동화를 통해 공공 비용을 절감하려는 목적도 포함하고 있다. 이 계획은 시범사업에서 확장까지 어떤 입찰이 적절한지 2025년 여름까지 AI 조달을 위한 프레임워크를 개발할 것을 계획에 포함하고 있다. 또한 이 과정에서 공공 서비스에 적절한 AI 기술 스택 개발 조달 방법, AI 인프라 선택의 표준화 재사용 가능한 모듈식 코도 개발, 코드베이스의 오픈소스 의무화 등을 행동 계획에 포함하고 있다. 


     * 키어 스타머 총리가 이끄는 현 노동당 정부가 설정한 꼭 달성해야할 5대 미션은 경제 성장 촉진, 미래를 위한 국가보건서비스 구축, 청정 에너지 강국, 거리의 안전 회복, 기회의 장벽 제거이다.  

공공과 민간 부문의 상호 강화 

행동 계획은 AI 서비스의 최대 구매자이자 시장 형성자로서 정부가 역할을 해야할 것을 강조하는 동시에, 민간 부문에 대한 다양한 직접 지원을 포함하고 있다. 데이터와 컴퓨팅 인프라가 집중되는 데이터 센터 유치와 에너지 공급이 수월한 ‘AI 성장 특구’를 조성한다. 이 특구에서는 데이터 센터 설립에 요구되는 행정 절차가 간소화 될 것이고, 이를 가동할 에너지 공급을 위해 영국 원자력 에너지청의 본부가 위치한 옥스포드셔 소재 컬럽 과학단지가 AI 성장 특구의 시범 운영 후보지로 지정되었다. 

또한 정부가 주도하는 산업 정책내에서 모든 산업 전반에 걸쳐 AI 채택을 지원하기 위한 계획을 세울 것과 동시에, 산업별 선도 기업(sector AI champion) 육성을 권고하고 있다. 민간 부문의 AI 개발이 국가 산업 전략 목표와 일치하도록 보장하는 것을 목표로하고 있다. 이와함께 정부가 직접나서 산업별 AI의 빠른 채택을 위해 근로자들의 새로운 기술과 직무 적응 훈련을 지원할 것을 권고하고 있다. 

에너지 전략 

인공지능 인프라와 관련된 상당한 에너지 수요를 해결하기 위해 에너지 위원회 설립을 발표했다. 과학기술부 장관과 에너지 장관이 의장이 되는 이 위원회에서는 데이터 센터를 위한 재생에너지와 소형 원자로에 대한 투자를 계획하고 있다. 이 위원회에서는 AI 시스템에서의 에너지 사용이 탄소 중립 목표를 일치시키는 범위내에서 에너지를 공급해내는 것을 목표로 하고 있다. 영국의 경우 2024년에 이미 마이크로소프트, 아마존 구글과 원자력 에너지 사용 계약을 발표하였다. 

자국산 AI로 미래를 확보 

2030년대까지 AI 최첨단 기술을 보유한 국내 챔피언 기업은 국가 및 경제 안보의 핵심 축이 될 것으로 믿고, 이를 위해 정부는 모든 수단을 동원해 이의 실현에 총력을 다할것을 주문하고 있다. 특히 AI 수요국이아닌 공급국이 될 수 있도록, 최첨단 기술을 보유한 ‘영국 국민 기업’의 육성을 강조하고 있다. 이를 위해 ‘영국 주권 AI(UK Sovereign AI)’라는 신설 기관을 만들어 전략적 중요 AI 연구 분야 선정 및 집중 투자, 정부 자원을 활용한 빠른 스타트업 지원, 과학용 AI와 같은 경제 안보가치가 높은 분야에 대한 선행 시장 선점 등에 집중한다. 

결언 

이상 중국과 미국이 압도적으로 리드하고 있는 AI 산업을 따라잡기 위해, 영국 정부가 발표한 AI 기회 행동 계획을 살펴보았다. 작년 7월에 14년 만에 교체된 노동당 정부의 첫 AI 산업 관련 정책 계획으로 1월 13일에 발표되었고, 50개의 계획 권고사항마다 영국 정부가 직접 언제까지 이들 계획을 이행할지 명시하는 것으로,  이들 권고사항의 이행에 대한 정부 승인을 발표하였다

영국은 미국처럼 AI 산업을 선도하는 빅테크가 존재하지 않지만, 오랫동안 AI 기본기술 연구에서는 뛰어난 성과를 내온 나라인* 동시에 일방적인 산업의 주도시 간과할 수 있는 시민의 권리 보호나 안전 문제에 충분히 큰 목소리를 내고 있는 시민사회가 건강한 나라이기도 하다. 이런 특성이 잘 나타난 계획이 이번 AI 기회 행동 계획으로 보인다. 

* 2024년 11월 미국 스탠포드 대학교의 Global Vibrancy Tool에서 미국, 중국에 이어 영국이 3위를 글로벌 AI 강국으로 선정되었다. 같은 기록에서 한국은 6위 프랑스에 이어 7위를 기록하였다. 

AI 연구소, 기업들이 충분히 최신 기술과 모델을 개발할 수 있도록 정부가 직접 나서서 컴퓨팅 자원, 데이터, 인재 유치, 적절한 규제 환경 조성 (규제 법안과 함께 실제 규제 모니터링을 할 수 있는 규제 기관에 대한 예산 편성과 역량, 의무 강화) 등을 AI 리딩을 위한 기본 인프라로 간주하고 여기에 총력을 기울이는 것이 가장 눈에 띄는 전략이다. 이러한 AI 개발을 위한 기반 조성에 우선순위를 두고 있는 것을 두고, 영국내 대부분 산업계, AI 연구학계, 그리고 시민사회도 환영하는 분위기이다. 즉, 산업 전반과 시민 모두의 삶에 영향을 미칠 수 있는 AI가 개발되고 운영되는 백본을 공공 인프라로 인식하고, 공적으로 우선 순위에 올라갈 프로젝트에 공공 AI 컴퓨팅 자원, 데이터 셋, 인재 공급을 우선하겠다는 계획과 이것을 책임질 주체는 정부임을 밝힌점을 지지하고 있다. 무조건적으로 가장 유능한 자국 기업의 AI 모델 개발에만 집중하는 것이 아니라, 이런 AI 모델이 어떤 문제를 해결할 AI 모델인지 그런 프로젝트에 정부의 자원을 우선 집중한다는 계획을 우선 밝힌 점을 긍정적으로 보고있다. 이를 위해 투명한 방법으로 공공기관의 데이터를 수집, 정제, 관리, 공유를 하게될 국가데이터라이브러리를 만드는 계획도, 이를 통해 공공 데이터 공유와 거버넌스에서 상호운용(interoperable)과 투명한(opne) 표준이 만들어져 적극적으로 활용될 것을 기대하고 있다.  

하지만, 이러한 전략적 방향에서 미흡하다고 비판받는 지점도 눈에 뜨인다. 현재는 행동계획이 영국 정부의 AI 자문단의 1차 계획이고 영국 정부는 이 50개 권고 사항을 다 수용하겠다는 입장이지만, 이 계획에 대한 비판적인 목소리를 어떻게 반영하면서 실제 정책이 만들어지고 추진될지는 더 지켜봐야할 것이다. 다양한 비판의 목소리 중 특히 상업용 목적의 AI 개발에 저작권 데이터 사용을 옵트아웃 방식으로 예외시키는 것에 대한 개정을 두고 창작자들의 우려는 아주 강력하며, 공공 서비스에 대한 AI의 선도적 활용이 현재 영국 정부가 처해있는 공공 서비스의 실패를 단박에 해결해줄 것처럼 착각할 정부를 비판하고 있다. 그 과정에서 오히려 윤리적 문제, 투명성 문제, 형평성 문제 등으로 공공 서비스 효율성 개선보다 부작용이 더해질수 있어 이러한 문제의 보완책을 갖춘 환경에서의 공공 서비스의 AI 도입을 할 것을 주문하고 있다. 특히, 정부의 공공 서비스는 대부분의 시민이 그 사용자인 만큼 AI 활용시 시민들이 충분히 보호받고, 그들의 의견이 충분히 개진될 수 있는 채널이 확보된 상태에서 이를 추진할 것인지 세부 계획이 없는 것에 대한 우려가 제기되고 있다.이터 전략 있어서도 정부가 앞서서 데이터를 모으고 공유하는 NAL을 구축하는 것은 전략 방향은 옳지만, 이의 이행에 있어서 FAIR 원칙* 준수 여부와 이의 계획과 구현에서 얼마나 시민이 참여하여 시민 중심의 서비스가 되도록 노력을 기울질지에 대한 계획이 보이지 않음을 비판하고 있다. 이번 행동계획 발표전 공공 서비스의 AI 도입에 성공 사례만큼 위험했던 많은 사례들이 있었고, 이러한 발표 이후에도 유사한 실패 사례가 보도되고 있기 때문이다. 또한 AI 인프라의 에너지 계획도 세부적으로 풀어야할 과제가 산적해있다

*  데이터 수집과 공유의 FAIR 원칙: Findable(찾기쉽게), Accessible(접근 가능하게), Interoperable(상호 운용 가능하게) and Reusable(재사용 가능하게). 이 원칙은 인간과 기계가 자동으로 데이터를 찾고, 사용할 수 있도록하는데 필요한 원칙을 제시함.

영국은 미국과 같이 빅테크 산업은 없지만 뛰어난 AI 원천 기술을 연구소 수준에서 보유한 나라로서, 미국과 중국의 독주를 막을 방법은 성급한 비즈니스화로 AI의 안전이 담보되지 못한 위험한 AI 모델의 상업화를 막고, 따라서 안전한 AI 개발이라는 “AI 안전”을 화두로 글로벌 커뮤니티와 정부 수반을 모아 2023년에 AI 안전 정상회담(AI Safety Summit)을 출범시킨 경험이 있다. 하지만, 불과 2년만에 열린 2025년 2월 파리 AI Summit에서는 영국 총리가 “포용적이고 지속가능한 AI 개발”과 관련된 합의서에 미국과 함께 사인을 하지 않으면서 윤리적이고 안전하며 믿을 수 있는 AI 시스템 개발의 선도주자로 자리매김하려는 국가 전략의 방향을 바꾼 것으로 해석되고 있다

이처럼 AI를 둘러싼 지정학적 관계가 시시각각 변화하면서 영국 정부도 그들의 AI 전략은 계속 변화해나갈 가능성이 없지 않다. 특히 현재 영국 정부가 노동당 내각으로 보수당에 비하여 시민사회의 목소리를 더 경청하고, 산업 진흥보다는 인권 보호에 더 비중을 두고 있는 정당이라는 인식이 무색하게 AI에 관해서만은 기업계의 목소리를 우선적으로  수용하고 있는 것으로 보인다(AI 기회 행동계획의 주 저자는 벤처 투자자인 기업가이다).

Comment

런던에서의 서울 AI 정상회의 회고

Comment

런던에서의 서울 AI 정상회의 회고

영국은 AI 정상회의를 처음 제안하고 1회 행사를 주최한 국가로서, 이번 서울 행사에도 주요 인사들을 파견했다. 영국 런던에서는 이전 행사 참여자들과 차기 주최국인 프랑스의 디지털 업무 대사 앙리 베르디에를 초청하여, 서울 AI 정상회의의 내용을 공유하고 성과, 아쉬웠던 점, 그리고 다음 행사에 대한 기대 사항을 논의하는 회고 자리를 마련되었다. 이 행사는 지난 6월 5일 런던 브리티쉬 도서관에서 대중에게 공개되었다. 행사는 두 세션으로 진행되었으며, 마지막 20분 동안은 2025년 2월 다음 AI 정상회의를 주최할 프랑스의 대표자가 참석하여 계획을 발표했다. 이번 회고 자리는 AI Fringe 행사의 일환으로 마련되었다. 이 글에서는 이날 논의된 주요 쟁점과 행사 분위기를 전달하고자 한다.

Comment

EU 인공지능법이 가져올 변화

Comment

EU 인공지능법이 가져올 변화

2024년 3월 14일 EU 인공지능법 최종안이 EU 의회에서 통과되면서 올해 상반기(5~6월 경)에 최종 공포 및 발효될 것으로 기대된다. 지난 포스트에서 현재까지 알려진 최종안의 내용을 간략하게 (상세한 버전은 여기에) 소개하였고, 이번 포스트에서는 최종 법안 발효시 가져오게될 현장에서의 중요한 변화를 독자의 이해가 쉽도록 풀어서 설명해본다. 

Comment

EU 인공지능법 (EU AI Act)

Comment

EU 인공지능법 (EU AI Act)

유럽연합(EU)의 인공지능(AI) 법안은 2021년 4월에 유럽 집행위원회가 발의하였고 몇 차례의 수정을 거쳐 2023년 12월 9일에 EU 법안 제정의 3대축인 유럽 집행 위원회(EU Commission), 유럽연합 의회(EU Parliament), 유럽연합 회원국 각료 이사회(Council of EU)로부터 모두 잠정 승인을 받게되었다. 이후 2024년 3월 14일 법안의 최종 문구가 유럽연합 의회의 투표에서 가결되었다. 찬성 523표, 반대 46표, 기권 42표로 압도적 찬성의 투표 결과다. 이제 유럽연합 회원국 각료 이사회가(EU Council) 최종 승인하면 유럽연합 인공지능법(AI Law)로 공표되게 된다. 인공지능 시스템의 유형에 따라 EU 인공지능법의 적용 시기는 빠르게는 공표후 6개월 후(금지 시스템)에 시작될 예정이다. 모든 법조항의 의무사항은 공표후 36개월 이내에 적용된다는 타임라인이 발표되었다. 이미 법적용을 위해 EU 집행위원회는 현재(2024년 3월) EU 인공지능 사무소를 열고 직원 채용을 진행중이다. 3월 14일 법안의 최종문구는 아직 공개되지는 않았지만 2024년 1월 21일 여러 언론에 최종법안이 유출되어, 아래 내용은 그 유출된 버전을 바탕으로 정리한 내용이다.

Comment

데이터자본시대의 데이터

Comment

데이터자본시대의 데이터

더 많은 기업들이 데이터와 인공지능에서 새로운 먹거리를 찾는다. 이를 두고 쇼샤나 주보프(Shoshana Zuboff) 하버드 비즈니스 스쿨 교수는 “정보기술, 특히 AI의 급속한 발전과 더불어 경제는 데이터를 중심으로 근본적으로 재편되었다.”고 말한다. 기업 경쟁력은 제품력의 향상이나 비용 절감이 아니라, 시장과 소비자를 가장 근접하게 예측하기 위해 데이터를 추출하고, 사용자 행동을 예측하여, 장기적 수익 모델로 이끌어내는 역량에 좌우된다는 것이다. 현재 시장을 이끌고 있는 기업뿐만 아니라 스타트업들이 지금의 온라인 타겟 광고를 넘어서 사용자의 생활에 영향을 끼치는 서비스, 인공지능 기반 개인 비서 서비스, 가상현실과 증강현실, 자율주행 자동차, 드론 배달 등과 같은 분야로 눈을 돌리는 이유이다.

Comment

믿을 수 없는 선생님, 믿을 수 있는 인공지능

Comment

믿을 수 없는 선생님, 믿을 수 있는 인공지능

인공지능이 내린 의사결정은 많은 경우 인간이 주도하는 과정의 부분일 뿐이다. 인간 의사결정자를 위해 보다 상세한 정보를 제공하는 역할로 활용될 뿐, 최종 의사결정은 그 권한과 책임을 갖는 인간이 내린다. 인공지능 의사결정에 의존해 인간이 어떤 판단을 내릴 땐, 편향성이 유입될 수 있는지 인공지능 판단을 포함한 의사결정 전 과정을 살펴보아야한다. 사전에 의도하지 못했던 결과를 효과적으로 찾아내기 위해 제3자에 의한 독립적 검토가 필요하다. 인공지능이 개입된 의사결정을 더 주의하여 살펴보아야할 이유는 그 결과가 미치는 파급이 전에 없이 크기 때문이다.

Comment

인공지능 - 희망 혹은 두려움

Comment

인공지능 - 희망 혹은 두려움

인공지능이 가져올 혜택과 폐해는 동전의 양면처럼 붙어있다. 누가 어떤 목적으로 이 기술을 적용하는지에 따라 인공지능 설계와 학습 데이터 선택은 달라지며, 결과가 누구에겐 혜택이 되고 또 다른 이에겐 폐해가 될 수 있다. 얼굴인식 알고리즘을 광범위하게 적용하고 싶어 하는 경찰은 최신 기술로 범죄율을 낮추고 싶어 한다. 하지만 이로 인해 이유 없는 감시와 검문을 받게 되는 시민은 인권 침해를 우려할 수밖에 없다. 수백 수천 명의 응시자가 몰리는 취업 인터뷰를 하는 기업은 효율성을 위해 인공지능 인터뷰를 활용하지만, 응시자는 공정성을 의심한다. 이렇듯 인공지능이 만들어가는 미래는 서로 다른 이해관계자 간 충돌을 초래한다. 바로 이 지점이 인공지능이 끄는 디스토피아로의 행진을 막기 위해 시급히 고민해야 할 부분이다.

Comment