정책혁신의 진화와 Policy Lab의 등장
정부의 정책혁신 방식은 단절적으로 변화해 온 것이 아니라, 사회 문제의 성격과 행정 환경의 변화에 대응하며 점진적으로 진화해 왔다. 1980~90년대의 신공공관리(New Public Management)는 기업 경영기법을 공공부문에 도입해 효율성과 성과 측정을 강화함으로써 정부 운영을 개선하고자 했다. 이후 2000년대에는 복잡한 공공문제에 대한 대응 필요성이 커지면서, 정부·민간·시민사회가 함께 문제를 정의하고 해결에 참여하는 거버넌스와 협치 모델이 확산되었다. 2010년대에 들어서는 정책이 실제로 ‘작동하는지’를 검증하려는 근거기반 정책, 행동과학, 정책 실험의 중요성이 부각되었으며, 동시에 디지털 전환과 함께 사용자 중심·서비스 중심의 정책 설계 방식이 정책혁신의 핵심 접근으로 자리 잡았다.
이러한 흐름은 각각 정책의 다른 측면을 보완해 왔으나, 개별적으로는 복잡하고 불확실성이 높은 문제를 충분히 다루는 데 한계를 드러냈다. 성과 관리는 정책의 결과를 측정했지만 작동 메커니즘을 설명하기에는 부족했고, 협치는 참여를 확대했으나 실행과 학습으로 이어지는 구조를 제도화하지는 못했다. 근거기반 정책과 실험은 효과 검증을 가능하게 했지만, 종종 정책 설계와 서비스 구현 과정과 분리되어 운영되었으며, 사용자 중심 접근 역시 제도적 확산과 책임 구조까지 포괄하지는 못했다(1).
정책 랩(Policy Lab)은 이러한 정책혁신 흐름이 누적되며 등장한 제도적 장치로서, 효율·참여·증거·사용자 중심이라는 서로 다른 혁신 요소를 정책 설계–실행–평가 전 과정에서 동시에 작동시키기 위한 ‘정책 실험 인프라’로 이해할 수 있다. Policy Lab은 정책을 완결된 해법이 아니라 검증이 필요한 가설로 설정하고, 공동설계·프로토타이핑·파일럿·평가를 통해 정책의 실제 작동 조건을 시험하며, 그 결과를 다시 정책과 제도로 환류시키는 구조를 제도화한다.
특히 AI와 디지털 기술의 확산은 정책을 더 이상 문서와 규칙의 문제가 아니라, 실제 공공시스템이 시민의 삶에 지속적으로 개입하는 운영의 문제로 전환시키고 있다. 이 변화는 정책혁신의 각 요소를 분절적으로 적용하는 방식으로는 충분히 대응할 수 없으며, 정책이 실제로 어떻게 작동하는지를 사전에 실험하고 학습할 수 있는 상설적 인프라를 요구한다. 이러한 맥락에서 Policy Lab의 등장은 기존 정책 혁신의 연장선이자, AI·디지털 전환 시대에 정책이 작동하기 위한 다음 단계의 정책혁신 모델로 이해될 수 있다.
(1) 기존 정책혁신 접근들은 각각 정책의 특정 측면을 개선하는 데 기여해 왔으나, 정책 전 과정을 통합적으로 재구성하지는 못했다. [Tackling Policy Challenges Through Public Sector Innovation. OECD] 성과관리 중심의 개혁은 정책의 효율성과 책임성을 강조했으나 복잡한 사회문제를 단순 지표로 환원하는 한계를 노출했고 [New public management and innovation policy: A systematic literature review], 거버넌스와 협치 모델은 참여의 폭을 넓혔으나 실행과 학습으로 이어지는 구조를 제도화하는 데에는 어려움이 있었다 [Co-design is not enough: reflections on creative collaborative public sector innovation to deliver net zero policy outcomes in Scotland]. 근거기반 정책과 행동과학은 정책 효과를 실증적으로 검증하는 도구를 제공했지만, 이는 종종 정책 설계 및 서비스 구현 과정과 분리되어 운영되었으며 [Tackling Policy Challenges Through Public Sector Innovation. OECD], 사용자 중심·디자인 접근은 정책을 시민 경험의 관점에서 재구성하는 데 기여했음에도 제도적 확산과 책임 구조까지 포괄하지는 못했다[Tab the lab: A typology of public sector innovation labs]. AI와 공공 정책/서비스의 만남
AI가 만들어내는 정책 혁신의 성격
인공지능(AI)은 종종 더 빠르고 정교한 정책 수단으로 설명된다. 실제로 정부는 AI를 통해 복지 사각지대를 정밀하게 찾아내고, 행정 업무를 자동화하며, 정책 효과를 예측할 수 있을 것으로 기대한다. 그러나 AI가 공공정책에 도입되는 순간, 정책의 성격은 단순한 효율성 향상을 넘어 근본적으로 달라진다. 전통적으로 정책은 법·제도·지침이라는 형태로 설계되고, 집행 이후 성과 평가와 사후 조정을 통해 관리되어 왔다. 정책이 기대한 효과를 내지 못하더라도, 제도 개정이나 예산 조정, 지침 변경을 통해 점진적인 개선이 가능했다. 이 과정에서 정책은 기본적으로 인간의 판단과 재량이 중심이 되는 영역으로 남아 있었다.
그러나 AI는 정책을 문서나 규칙의 문제에 머물게 두지 않는다. 알고리즘은 복지 대상자를 선별하고, 자동화된 판단은 행정 절차의 우선순위를 결정하며, 데이터 기반 예측은 정책 자원의 배분 방향에 직접 개입한다. 그 결과 정책은 더 이상 한 번의 결정이 아니라, 지속적으로 작동하며 판단을 반복하는 운영 시스템으로 전환된다. 이 변화는 정책 실패의 성격과 책임 구조, 그리고 시민이 정책을 경험하는 방식 자체를 재구성한다.
실험없는 AI 정책은 왜 위험한가?
AI 정책의 가장 큰 특징은 실패의 비용이 크고 비가역적이라는 점이다. 알고리즘 기반 정책은 빠르게 확산되며, 설계 단계에서의 작은 오류나 데이터 편향은 단기간에 대규모 시민 피해로 이어질 수 있다. 사후적으로 문제를 발견하더라도, 이미 자동화된 시스템과 조직 구조에 깊게 결합된 정책을 중단하거나 수정하는 데에는 상당한 정치적·제도적 비용이 발생한다. 사후적 성과 관리나 보완 조치만으로는 발생한 피해를 되돌리기 어렵다는 점은 여러 연구에서 반복적으로 지적되어 왔다. 책임 문제는 더욱 복잡하다. AI 정책에서는 문제가 발생했을 때 책임이 정책 담당자, 개발사, 운영 부서, 데이터 제공자 사이에 분산되기 쉽다. 이는 책임이 사라진다는 의미가 아니라, 오히려 “누가 책임지는가”라는 질문이 명확히 답변되지 않는 상황을 만들어 정책결정자의 정치적 부담을 증폭시킨다. 시민의 관점에서 책임 주체가 불분명할수록, 그 책임은 결국 정책 도입을 승인한 정치·행정 책임자에게 귀속된다.
또 하나 간과되기 쉬운 위험은 시민 신뢰의 급격한 붕괴 가능성이다. AI 기반 정책은 작동 방식이 불투명한 경우가 많고, 설명되지 않는 결정이나 차별 논란을 낳기 쉽다. 이러한 논란은 개별 정책에 대한 불만을 넘어, 정부의 디지털 전환 전반에 대한 불신으로 확산되는 경향을 보인다. 한 번 훼손된 신뢰는 사후 설명이나 홍보만으로 회복하기 어렵다.
그럼에도 불구하고 많은 AI 정책은 여전히 문서 중심의 사전 검토, 전문가 자문, 제한적인 파일럿, 사후 평가 등 전통적인 정책 설계·운영 방식에 크게 의존하고 있다. 이러한 접근은 AI 정책이 내포한 위험을 체계적으로 관리하기에는 충분하지 않다.
정책 랩(Policy Lab): 정책을 ‘가설’로 다루는 실험 인프라
이러한 문제의식은 AI 정책이 한 번의 결단으로 완성될 수 없다는 경험적 인식에서 출발한다. 이에 따라 여러 국가와 국제기구는 정책을 완결된 결론이 아니라 검증이 필요한 가설로 설정하고, 이를 실제 환경에서 시험·학습·조정하는 상설적 인프라인 ‘정책 랩(Policy Lab)’에 주목하고 있다.
정책 랩의 근본적인 차별점은 정책을 일회적 결정이 아니라 명시적인 가설로 다룬다는 점이다. “이 정책은 효과가 있을 것이다”라는 가정을 출발점으로 삼아, 정책 설계–실행–평가 전 과정을 하나의 학습 루프로 통합한다. 공동설계, 프로토타이핑, 소규모 파일럿을 통해 정책의 실제 작동 여부를 제한된 조건에서 검증하고, 그 결과를 다시 제도 개선으로 환류시키는 구조를 제도화한다.
'성능'을 넘어 '작동 조건'을 검증하는 완충지대(Buffer)
정책 랩의 핵심은 단순히 더 좋은 정책 아이디어를 발굴하는 데 있지 않다. 핵심은 정책이 현장에서 어떤 조건에서 작동하고, 어디에서 실패하는지를 사전에 드러내는 것이다. 특히 AI 정책 랩은 공공정책에 AI를 전면 도입하기 이전에 반드시 거쳐야 할 완충지대(buffer)로 기능한다 (표.1 참조).
이를 통해 정책결정자는 AI 정책을 ‘되돌릴 수 없는 단판의 혁신’이 아니라, 실험 결과에 따라 수정·보완·중단이 가능한 단계적이고 가역적인 선택으로 다룰 수 있다. AI 정책 랩은 정책 실패를 용인하는 조직이 아니라, 실험과 관찰, 평가와 학습을 통해 정책 실패의 비용을 사전에 파악하고 관리함으로써 전체 AI 정책 시스템의 회복탄력성을 높이는 장치다.
AI 시대의 정책은 도입 이전과 초기 단계에서부터 다음과 같은 질문에 답할 수 있어야 한다.
“이 정책은 어떤 조건에서만 작동하는가?”,
“어떤 집단에 예상치 못한 영향을 미치는가?”,
“문제가 발생했을 때 어디서 어떻게 수정하거나 중단할 수 있는가?”
이 질문들은 문서 검토나 전문가 자문만으로는 해결될 수 없으며, 실제 정책 환경에서의 실험과 학습을 전제로 한다. 따라서 AI 정책에는 일회성 파일럿이나 임시 태스크포스가 아니라, 상시적으로 정책을 시험하고 증거를 축적하며, 그 결과를 제도와 표준으로 환류시키는 실험 인프라가 필요하다. AI 정책 랩은 바로 이 역할을 수행하는 핵심 기반이라 할 수 있다. AI 정책을 기술 도입의 문제가 아니라 책임 있는 운영과 지속적 조정의 문제로 다룰 수 있게 만든다.
목적이 아닌 수단으로서의 실험과 참여
정책 랩에서 강조하는 실험과 시민 참여는 그 자체가 목적이 아니다. 참여는 정당성 확보를 넘어, 정책 설계의 핵심 변수를 발견하기 위한 수단이며, 실험은 성공 사례를 홍보하기 위한 장치가 아니라 정책의 확산(Scale-up) 또는 중단(Stop)을 판단하기 위한 근거 생산 과정이다. 이러한 구조 속에서 정책 실패는 정치적 부담이나 행정적 오류로 남지 않고, 다음 정책 설계를 위한 학습 자산으로 전환된다. 결과적으로 정책 랩은 공동 작업 공간, 전문 방법론 세트, 소규모 실험 환경을 결합한 일종의 정부 혁신 운영체제(OS)로서, 기존의 파편화된 정책 혁신 시도들을 질적으로 통합한다 (표.2 참조).
AI 정책 실험의 제도화 - 해외사례
이러한 접근은 이미 여러 국가에서 AI 거버넌스의 핵심 요소로 자리 잡고 있다. OECD는 AI를 규제 대상이나 산업 성장 동력으로만 보지 않고, 정부 스스로가 개발자이자 사용자로서 책임을 져야 할 기술로 규정한다. 이 관점에서 AI 거버넌스의 핵심 과제는 원칙 수립이 아니라, 불확실성과 위험을 관리하면서 신뢰를 축적하는 실행 능력이다. 「Governing with Artificial Intelligence」는 다수의 국가 사례를 분석하며, 공공부문의 AI 활용이 파일럿 단계에 머무르는 주요 원인으로 실험 결과를 정책·제도로 환류하는 구조의 부재를 지적한다. 이 공백을 메우는 장치로서 Policy Lab·Innovation Lab이 AI 활용의 테스트베드이자 학습 공간으로 등장하고 있음을 명확히 한다.
OECD STI Outlook 2025 역시 불확실성이 높은 기술 전환기에서 정부의 민첩성(agility)을 확보하기 위한 핵심 수단으로 policy experimentation을 강조하며, 이를 가능하게 하는 제도적 환경으로 innovation policy labs와 regulatory sandboxes를 제시한다. 중요한 점은, 이러한 실험이 일회적 프로젝트가 아니라 정책 프레임과 조직 운영에 내재화되어야 한다는 점이다. 즉, AI Policy Lab은 ‘선도국의 선택적 실험’이 아니라, AI 거버넌스를 실행하려는 정부가 갖춰야 할 기본 인프라로 위치한다.
영국의 Policy Lab과 법무부(MoJ)는 정책을 문서로 완성하기보다, 사용자 경험을 기반으로 한 프로토타입과 파일럿을 통해 초기 단계에서 정책의 작동 가능성을 검증해 왔다. 이를 통해 정책이 현장에서 어떻게 받아들여지는지, 어떤 지점에서 병목이나 부작용이 발생하는지를 사전에 드러낼 수 있었다. EU 정책 랩(EU Policy Lab)은 디자인, 미래예측, 행동통찰을 결합해 AI와 디지털 정책이 사회에 미칠 영향을 실험적으로 탐색하는 공간으로 기능하고 있다. 핀란드의 Sitra는 AI를 단기 효율성 도구가 아니라 사회 시스템 전환의 요소로 다루며, 실험을 통해 장기적 정책 옵션을 검증해 왔다.
노르웨이 감사원 산하 혁신 랩은 AI가 행정과 감사, 책임 구조에 미치는 영향을 실험하며, AI를 ‘혁신’이 아니라 통제와 책임의 문제로 다루는 접근을 보여준다. Open Data Policy Lab과 네덜란드의 Waag Future Lab은 알고리즘 투명성, 데이터 거버넌스, 시민 참여를 실제 정책 도구로 구현하는 데 초점을 맞추고 있다.
OECD가 언급한 독일 연방노동사회부(BMAS) 산하 Policy Lab Digital, Work & Society는 AI와 디지털 전환이 노동·사회정책에 미치는 영향을 부처 내부에서 직접 실험·검증하는 사례다. 이는 AI Policy Lab이 외부 자문기구나 연구 프로젝트가 아니라, 정책 결정과 가까운 위치에서 운영될 때 가장 큰 효과를 낸다는 점을 보여준다. 핀란드의 AuroraAI 및 Sitra의 실험 역시 AI를 기술 정책이 아니라 서비스 접근성·사회적 영향의 문제로 다루며, 실험을 통해 가능성과 한계를 학습 자산으로 축적한다.
이들 사례의 공통점은 분명하다. AI 정책 랩의 성과는 AI를 도입했다는 사실이 아니라, AI 정책을 시험하고 조정할 수 있는 능력을 제도화했다는 점이다.
AI 정책 실험의 공백 – 한국의 현재와 시사점
해외 사례가 보여주듯, AI 정책 랩은 AI 거버넌스를 선언과 원칙의 수준에 머무르게 하지 않고, 실제 정책 운영의 영역으로 끌어내리는 핵심 인프라로 기능하고 있다. 이에 비해 한국의 AI 정책 환경은 전략과 제도 구축에서는 빠르게 진전해 왔지만, 정책을 실험하고 조정하는 구조는 상대적으로 취약한 상태에 머물러 있다.
한국에서도 정책 혁신을 위한 정책 랩 시도 자체는 존재해 왔다. 행정혁신, 디자인 기반 정책 설계, 시민 참여형 정책 실험 등은 과거 여러 연구기관과 정부 조직을 중심으로 제한적으로 시도된 바 있다. 그러나 이러한 시도는 대부분 개별 정책 영역이나 일반 행정 혁신에 국한되었으며, AI 정책과 같이 고위험·고불확실성을 지닌 영역에는 본격적으로 적용되지 못했다는 한계를 가진다.
최근 한국은 국가 AI 전략, AI 행동계획, AI 기본법 제정 등을 통해 AI 정책의 방향성과 원칙을 비교적 명확히 설정하였다. 그러나 이 체계는 주로 “무엇을 추진할 것인가”와 “어떤 기준을 지켜야 하는가”에 초점을 두고 있으며, AI 정책이 실제 현장에서 어떻게 작동하는지 시험하고, 문제를 조기에 발견·조정하는 제도적 장치는 충분히 갖추지 못하고 있다. 그 결과 AI 정책은 여전히 문서 중심의 설계, 제한적인 파일럿, 사후 평가에 의존하는 경향을 보인다. 이러한 구조는 특히 복지, 노동, 행정 자동화, 치안 등 시민의 권리와 일상에 직접적인 영향을 미치는 영역에서 위험을 증폭시킬 수 있다. AI 기반 정책의 오류와 편향은 사후적으로 수정하기 어렵고, 책임 소재가 불분명할수록 정치적·사회적 비용은 커진다. 그럼에도 불구하고 현재 한국의 정책 체계에는 AI 정책을 ‘되돌릴 수 있는 방식’으로 다룰 수 있는 실험 공간이 제도적으로 마련되어 있지 않다.
이 지점에서 AI 정책 랩의 필요성은 분명해진다. AI 정책 랩은 새로운 정책을 하나 더 만드는 조직이 아니라, 이미 존재하는 AI 전략과 법·제도를 실제로 작동하게 만드는 실행 인프라다. 정책을 완결된 해법이 아니라 검증이 필요한 가설로 다루고, 제한된 조건에서 시험한 뒤 확산·중단·수정을 결정할 수 있게 만드는 장치가 없다면, AI 정책은 반복적으로 사회적 갈등과 신뢰 위기를 초래할 가능성이 크다.
한국에서 AI 정책 랩 논의가 중요한 이유는 단순히 해외 사례를 따라가기 위해서가 아니다.AI 정책의 다음 단계는 더 많은 선언이나 투자 계획이 아니라, 정책이 실제로 작동하고 조정될 수 있는 제도적 공간 마련이 필요하기 때문이다. 이 글의 결론은 간단하다. AI 정책은 더 이상 “도입 여부”의 문제가 아니라, “어떻게 책임 있게 운영하고, 언제 멈출 수 있는가”의 문제다. 실험 없는 AI 정책은 혁신이 아니라 위험이며, AI 정책 랩은 그 위험을 관리하기 위한 가장 현실적인 선택지다. 한국의 AI 정책이 성숙 단계로 나아가기 위해서는, 이제 전략과 법제의 다음 단계로서 AI 정책 실험의 제도화를 본격적으로 논의하고 시도해보아야 한다.
부록 1 - 해외 AI Policy Lab 및 관련 조직 비교 표
부록 2 - 해외 AI 정책 Lab에서 실험해볼 수 있는 시민참여가 중심이되는 AI 정책을 연구하는 정책 연구소