각국의 규제 - 무엇이 논의되고 있는가?

2024년을 주도할 기술과 산업 전망에서 인공지능이 가장 선두를 차지하고 있다. 2022년말 chatGPT의 발표가 불러온 전세계 빅테크 기업간의 인공지능 경쟁은 전에없이 놀라운 속도의 인공지능 기술 발전과 새로운 서비스의 출현을 가져오고 있다. 동시에 인공지능이 가져올수 있는 다양한 형태의 위험이 광범위하게 현실로 드러나고 있는 것도 사실이다. 하지만 이러한 위험의 완전한 보완없이 경쟁에 매몰된 기업들은 앞을 다투어 새로운 서비스를 출시하고 있다. 이에 유럽연합을 위시로 미국, 캐나다, 영국, 중국 정부도 2023년에는 인공지능 규제를 현실화하는 작업을 진행하였다. 

각 나라마다 인공지능 규제의 내용과 시행 접근법도 조금씩 다르며, 그러한 차이점의 이면에는 각국의 빅테크 산업의 경쟁 포지션에 따라 각각 다른 속내가 있기 때문이다. 이번 글에서는 그중 규제 내용이 가장 광범위하고 오랫동안 다양한 논의가 진행된 유럽연합 인공지능 법안의 내용과 쟁점을 살펴본다. 아래 내용은 2024년 1월 19일 첫 포스팅이후 2024년 3월 14일 유럽연합 의회의 법안 통과후 2024년 3월 19에 내용을 수정하여 재포스팅한 내용이다.

유럽연합 인공지능법 (EU AI Act) 최종안

유럽연합(EU)의 인공지능(AI) 법안은 2021년 4월에 유럽 집행위원회가 발의하였고 몇 차례의 수정을 거쳐 2023년 12월 9일에 EU 법안 제정의 3대축인 유럽 집행 위원회(EU Commission), 유럽연합 의회(EU Parliament), 유럽연합 회원국 각료 이사회(Council of EU)로부터 모두 잠정 승인을 받게되었다. 이후 2024년 3월 14일 법안의 최종 문구가 유럽연합 의회의 투표에서 가결되었다. 찬성 523표, 반대 46표, 기권 42표로 압도적 찬성의 투표 결과다. 이제 유럽연합 회원국 각료 이사회가(EU Council) 최종 승인하면 유럽연합 인공지능법(AI Law)로 공표되게 된다. 인공지능 시스템의 유형에 따라 EU 인공지능법의 적용 시기는 빠르게는 공표후 6개월 후(금지 시스템)에 시작될 예정이다. 모든 법조항의 의무사항은 공표후 36개월 이내에 적용된다는 타임라인이 발표되었다. 이미 법적용을 위해 EU 집행위원회는 현재(2024년 3월) EU 인공지능 사무소를 열고 직원 채용을 진행중이다. 3월 14일 법안의 최종문구는 아직 공개되지는 않았지만 2024년 1월 21일 여러 언론에 최종법안이 유출되어, 아래 내용은 그 유출된 버전을 바탕으로 정리한 내용이다 (아래는 요약정리이고 좀 더 자세한 정리는 인공지능과 데이터 거버넌스 - 원칙과 규제(유럽연합)을 참조).

위험 수준에 따른 인공지능 시스템 분류와 규제

유럽연합 인공지능 법안의 핵심은 위험수준에 따라 인공지능 시스템을 네 분류(용인할 수 없는 위험, 고위험, 제한된 위험, 최소 위험)로 구분하고, 각 분류에 따라 관리 절차를 정의하고 있다. 이 네 분류는 AI 시스템의 사용목적, 사용정도, 건강/안전/인간 기본권에 미치는 영향, 피해의 강도 및 범위, 피해복원 가능성 정도 등을 평가하여 위험수준을 정의하였다. 다시 말해 범용ㅇ,로 개발된 AI 시스템의 기술적 결함이나 특징이 아닌 시스템의 사용용도와 가능한 피해 정도에 따라 시스템 분류를 하고, 그에 따라 다른 규제 의무사항을 제시하고 있다.

1) 용인할 수 없는 위험군

인간의 안전, 건강, 생계, 기본권을 위협하는 명백한 위협이 되는 인공지능 시스템으로,  합법적으로 허가를 받는 연구 목적의 개발 및 운영을 제외하고는 현장 활용이 전면 금지된다. 여기에 해당되는 인공지능 시스템은 다음과 같다.

  • 잠재의식에 영향을 미치는 기술을 통해 인간의 행동을 왜곡/조작하여 정신적 혹은 육체적 위해를 가할 수 있는 시스템 :  

    예) 트턱운전사의 피곤도가 높아져 졸음 운전이 예상될 때 잠을 깨우기 위해 오디오의 볼륨을 높여 필요이상으로 위험한 상황에서 운전을 가능하게 하는 시스템  

  • 나이, 신체 및 정신 장애, 사회적 및 경제적 상황 등과 같은 특정 그룹의 취약성을 악용하여 인간의 자유의지를 회피하여 행동을 조작하는 시스템. 이로인해 정신적 혹은 육체적 위해를 가할 수 있는 시스템 :

    예) 보이스 비서 기능이 달린 장난감 인형 - 게임을 가장하여 아동이나 정신적으로 취약한 사람들의 행동을 조금씩 유인하여 위험한 행동을 하게끔 유도하는 시스템 

  • 개인이나 집단을 사회적 행동이나 개인을 특성으로 기반으로 평가하거나 분류하는 사회적 점수 시스템 : 여기서 사회적 신용등급을 평가하는 사회적 점수 시스템이란 각 개인의 사회적 행동이나 개인적 특성을 기반으로 ‘신뢰도 점수’를 생성하고, 그 점수에 기반하여 개인 또는 그룹을 부당하게 혹은 차별하는 대우를 하거나, 또는 정당하고 비례적이지만 입력 데이터에서 관련없는 맥락에서 해로운 대우를 하는 시스템: 공공서비스 뿐만 아니라 민간기업에서도 사회적 점수 시스템을 개발 공급 활용 금지.

    예) 중국의 사회점수 시스템 - 사회아동돌봄이 필요한 아동을 판단할 때 부모의 ‘적절한 돌봄'과 직접적인 관련이 없는 데이터(예: 이혼, 복지사 면담 결석 등)가 중요한 역할을 함. 

  • 개인 생체인식 데이터를 기반으로 인종, 성적지향성, 정치적 견해, 노동조합 가입여부, 종교적 또는 철학적 신념 등의 개인의 민감한 속성을 추론하여 사람을 판별하는 시스템 : 다만 합법적으로 취득한 생체인식 데이터의 라벨링이나 필터링, 또는 법집행기관이 생체인식 데이터를 분류하는 경우는 예외

  • 법 집행을 위해 ‘공개적으로 접근가능한’ 공간에서 ‘실시간'으로 원격 생체인식을 하는 시스템의 사용 : 법 집행기관이 이러한 시스템을 예외적으로 사용할 수 있는 경우, 그 사용과 목적과 경우를 구체적으로 명시해야 함 - 범죄 피해자 표적수색, 임박한 위협 방지 등 일부 상황(예: 테러공격, 예측 가능한 위협, 가장 심각한 범죄 용의자 탕색 등)에서도 예외적으로 허용  

  • 직장 및 교육 기관에서의 근로자 및 학생의 감정을 추론 인식하여 입학, 평가 등에 사용하는 시스템 (예외조항: 의료 혹은 안전을 목적으로 적용).   

  • 인터넷이나 CCTV 영상에서의 무차별적인 안면 이미지 수집을 통해 안면 인식 데이터베이스를 구축 활용하는 시스템 

  • 인종, 성적지향성, 종교적 신념을 나타내는 민감한 개인 생체인식 데이터를 기반으로 사람을 판별하는 시스템

  • 범죄 예방을 위해 ‘개인의 행동을 기반’으로 범법을 미리 예측하는 개인범죄행동예측 시스템을 활용한 치안시스템

    • 최종합의안 쟁점 포인트: 개인의 인간적 특성을 기반으로하는 개인범죄행동예측 시스템은 금지하지만, 개인의 특성(예: 전과기록)이 아닌 다른 데이터에 기반한 개인범죄행동예측 시스템은 허용.

2) 고위험군

고위험군의 인공지능 시스템은 시스템개발자, 공급자, 유통업체, 이용자 각각에게 인공지능 활용시 반드시 수행해야할 의무사항을 규정하고 있다. 이러한 의무사항을 준수해야할 대상은 유럽연합 시장에서 인공지능 시스템을 출시하거나 서비스를 제공하는 공급자(서비스 수입 및 유통업체 포함), 유럽연합내에 소재하는 인공지능 시스템 배치자 모두에게 적용된다. 고위험군으로 분류된 인공지능 시스템은 다음과 같다. 

  • 용납할 수 없는 금지된 AI 시스템에서 제외된 모든 자연인의 생체인식시스템

  • 시민의 삶과 건강에 위협을 가할 수 있는 중요 기반시설의 관리 및 운용에 사용되는 시스템 (예: 도로, 교통 및 물, 가스, 난방 및 전기 공급의 관리 시스템)

  • 교육 및 직업 훈련 시스템  (교육 기회 결정, 학생 평가 시스템, 교육 기관 입학시 응시자 평가 시스템, 응시자 시험 감독 시스템 등)

  • 근로자 관리 및 자영업 계약 관련 시스템 

  • 필수 공공/민간 서비스에 사용되는 시스템 (주로 서비스 혜택 적격성을 평가하는 시스템. 의료보험용 개인평가 시스템, 복지 수당 적격자 평가 시스템 등 포함)

  • 법 집행 및 치안 시스템 

  • 이주, 망명 및 국경 통제 관리 시스템 

  • 사법 정의 및 민주적 과정 관리(투표관리시스템 포함) 시스템 

  • 응급상황 전화의 평가와 분류 시스템

시장 출시전 시스템 공급자의 고위험군 AI 의무사항 - 준수성 평가 테스트  

이들 고위험군의 시스템의 경우 출시전 1) 적절한 위험관리 시스템을 운용하고 있는지, 2) 적절한 데이터 거버넌스를 수행하는지 (= 데이터가 시스템의 원래 목적을 달성하는데 충분히 완전하고, 오류가 없으며, 관련있는 데이터를 사용하였는지), 3) 시스템 관련 아키텍쳐, 알고리즘 디자인, 모델 명세서 등의 기술 명세서를 제작 보관하고 있는지, 4) 업계에서 인정하는 표준에 따라 수행된 결과 추적 로그를 기록 관리하고 있는지, 5) 사용자에게 투명하게 정보를 제공하는지, 6) 사람에 의한 감독이 이루어지고 있는지, 7) 정확성, 신뢰성 및 보안이 유지되고 있는지 등을 평가하는 “EU AI 법안 준수성 평가"를 거쳐 이를 통과한 경우에만 EU에서 운영 및 적용 가능하다. 또한 관할 기관이 요청시에는 이러한 의무사항 준수여부의 입증도 의무화하고 있다. 2021년 초안 발표 후 추가로 부가된 의무사항으로 8) EU가 직접 관리하는 고위험군 AI 데이터베이스에 등록도 요구되고 있다.  

따라서 고위험군의 경우 공급자가 자체 준수성 평가 후 평가 결과에 따라 인증마크를 부여하는 관할 기관이 필요한데 원칙적으로는 각 회원국이 지정하는 감독 당국에서 시행하도록 규정하고 있다. 하지만 법안의 EU내 일관성있는 적용을 보장하기 위해 EU 인공지능 위원회(EU AI Board)의 설치를 예정하고 있다 (본글 아래 EU 인공지능법 집행기관 및 절차 참조). 또한 원칙은 준수성 평가 후 인증마크 부착된 서비스만 시장 출시가 가능하지만, 준수성 평가가 진행중인 경우라도 일정한 사유가 있다면 각 회원국의 감독 당국은 회원국 내에서의 시장출시와 서비스 제공을 일단 승인하며, 사후에 준수성 평가의 결과에 따라 시장철수와 리콜 등의 조치를 취할 수 있다. 

시장 출시후 시스템 공급자의 고위험군 AI 의무사항

적합성 평가이후 출시된 고위험군 AI 시스템은 시스템 운영시 다음과 같은 의무사항이 주어진다.

  • 시장 출시 후 모니터링: 시스템 생성 로그 수집, 기록 및 분석. 인공지능법의 요구 사항을 지속적으로 준수하는지 평가하고, 시스템 사용 중에 발생하는 모든 위험 또는 문제를 식별할 수 있도록 해야 함.

  • 중대한 사고 및 기능장애 보고: 시스템의 기본권 침해로 이어지는 중대한 사고 또는 기능 장애로 인해 인공지능법의 의무 위반이 발생하는 경우, 해당 사고 또는 법령 위반이 발생한 회원국의 시장 감시 당국에 보고해야 함. 이 보고는 공급자가 시스템과 사고 또는 기능 장애 사이의 인과 관계를 규명한 후에 즉시 제출되어야 하며, 심각한 사고 또는 기능 장애를 인지한 후 최대 15일 이내에 제출

  • 당국과의 협력: 고위험 인공지능 시스템의 공급자는 국가 관할 기관의 이유 있는 요청에 따라 해당 시스템이 법의 요구 사항과 일치하는지를 증명하기 위해 해당 국가 관할 기관에 필요한 모든 정보와 문서를 제공해야 함. 공급자는 고위험 인공지능 시스템과 관련하여 해당 기관이 취하는 모든 조치에 대해 해당 국가 관할 기관과 협력해야 함. EU 인공지능사무소에서 요청하는 시스템 준수성 평가 결과 관련 정보를 즉각 공유해야 함

  • 보정조치: 공급자가 시장에 출시하거나 용역으로 제공한 고위험 인공지능 시스템이 법에 부합하지 않는다고 판단하거나 그러한 이유가 있는 경우, 해당 시스템을 법에 부합하도록 즉시 필요한 보정 조치를 취해야 하며, 필요한 경우 시스템을 철회하거나 회수해야 함. 또한 공급자는 관련된 고위험 인공지능 시스템의 유통업체 및 적용 가능한 경우 관련 대리인 및 수입업체를 포함한 가치사슬의 다른 운영자들에게도 이를 즉시 통보해야 함

  • 시스템상 중요한 수정사항이 있을 때 새로운 준수성 평가 재수행. 시스템 가치사슬에 참여하고 있는 다른 공급자/운영자에게도 시스템 준수성 평가 결과와 정보를 공유

시스템 배치자의 시스템 배치-사용전 고위험군 AI 의무사항

법령 초안에는 없었던 새롭게 추가된 의무사항으로 AI 시스템 사용전 기본권 영향 평가를 실시하도록 명시되었다. 고위험 시스템을 운영하려는 공공기관 및 공공서비스를 제공하는 민간단체 (은행, 보험회사, 병원, 학교 등) 모두에게 부과되는 의무사항이다. 다음의 의무사항이 어떤 수준까지 준비되었는지 평가하는 것이 기본권 영향 평가이며 자체 평가후 결과를 관리하고 있어야한다.

  • 기본권 영향 평가

    • 고위험 AI 시스템 사용시 적용될 운영자 및 운영 프로세스 파악

    • 고위험 AI 시스템 사용될 예정 기간 및 빈도 피익

    • 구체적인 맥락에서 영향받을 가능성이 있는 자연인 및 그룹의 범주 파악

    • 해당 범주의 자연인과 그룹에게 영향을 미칠 수 있는 구체적인 피해, 위험 파악

    • 인간 감독조치 포함한 위험 발생시 취해질 조치의 설명 제공

  • 배치자는 시스템과 함께 제공된 사용 설명서에 따라 고위험 인공지능 시스템을 사용해야 함.

  • 배치자가 입력 데이터를 결정하는 경우, 고위험 인공지능 시스템의 목적을 고려하여 입력 데이터가 관련성이 있는지 확인해야 함.

  • 배치자는 사용 설명서를 기반으로 고위험 인공지능 시스템의 작동을 모니터링해야 하며, 배치 설명서에 따른 사용이 인공지능 시스템이 위험을 가질 수 있다고 생각할 경우, 공급업체 또는 유통업체에 통보하고 시스템 사용을 중지해야 함. 이 때, 어떠한 이유로 공급업체에 연락을 취할 수 없는 경우, 배치자는 직접 시장감시당국에 보고해야함

  • 배치자는 자동으로 생성된 로그를 보존해야 함.

  • 각 회원국 관할 기관의 이유 있는 요청에 따라 해당 기관에 필요한 모든 정보와 문서를 제공하여 고위험 인공지능 시스템이 법의 요구 사항과 일치하는지를 증명해야 하며, 국가 관할 기관이 고위험 인공지능 시스템과 관련하여 취하는 조치에 대해 해당 기관과 협력해야 함

3) 제한된 위험군

제한된 위험군의 인공지능 시스템은 챗봇과 같이 인간과 상호작용하는 서비스, 딥페이크와 같이 컨텐츠를 생성하거나 조작하는 시스템이 포함된다. 이 경우 투명성의 원칙이 강조되어 1) 시스템과 상호작용하는 자연인에게 인간이 아닌 봇과 상호작용하고 있음이 알려지도록 시스템 설계 및 운영이 되어야하고 2) 딥페이크와 같은 생성 AI의 결과물은 그 산출물이 AI를 활용하여 생성 혹은 조작되었음을 공개되어야 한다. 이러한 의무는 서비스 공급업체에게 있다. 

4) 최소 위험군 

추가적인 법적 의무없이 기존 법규에 따라 개발 및 사용이 가능하다. 하지만 법적 의무는 아니더라도 시스템 개발 공급 운영업체에서는 투명성과 신뢰성 등을 확보하는 자율적인 행동강령을 수립하고 준수할 것을 권장하고 있다. 

5) 범용 인공지능 (General-Purpose AI: GPAI) 

2021년 4월에 발표된었던 법령 초안에는 없었던 내용으로, 2022년말 ChatGPT 출시이후 폭발된 생성AI 서비스 출시에 따라 추가된 내용이다. 우선 법안에서는 GPAI를 다음과 같이 정의하고 있다.

GPAI 모델은 대량의 데이터로 학습되고, 그 규모에 맞도록 자체 감독을 수행한 경우를 포함하여, 상당한 일반성을 나타내며, 모델이 시장에 출시된 방식과 관계없이 다양한 고유 작업을 능숙하게 수행할 수 있으며, 다양한 하위 시스템이나 응용 프로그램에 통합될 수 있는 AI 모델을 의미함. 전형적으로 매개변수를 약 10억개 이상 갖는 시스템으로 판단됨.

GPAI는 다음과 같은 두 계층의 모델로 구분하여 규제하게 된다. 

  • 기본 층위 : 이상의 범용 인공지능의 정의를 따르는 모델

  • 시스템적 위험 층위: 인공지능 모델 학습시에 사용된 컴퓨팅 파워의 누적된 양(1025 플로팅 포인트 연산(FLOP) 이상의 컴퓨팅)에 따라, 시스템적 위험을 만들어낼 수 있는 고영향 GPAI 시스템으로 판단. 이러한 정의는 기술발전에 따라 EU 인공지능 사무소가 지속적으로 모니터링하면서 지속적으로 변화할 예정

    시스템적 위험 층위의 GPAI로 정의된 내용은 현재 가장 발달된 GPAI 모델인 GPT-4, Gemini정도만이 1025 플로팅 포인트 연산 이상의 컴퓨팅을 하고 있으며, 이러한 모델은 시스템적 위험을 가질 수 있다고 판단된다는 것을 뚯한다. 따라서 이러한 모델의 제공업체인 Open AI나 Google의 DeepMind가 준수해야할 의무사항을 다음과 같이 잠정 합의하였다.

  • 모든 GPAI 모델 제공업체는 유럽 표준이 발표될 때까지 자율적으로 다음의 의무사항을 준수할 수 있는 기준을 자체적으로 결정하고 이행함으로써 그 의무를 준수하도록 함. 이 실천 기준을 이행하지 않는 제공업체는 대안적인 적합 수단을 위원회 승인을 위해 증명해야 함.

  • 기본 층위 GPAI의 의무사항

    • 최신 기술 문서 유지 및 관리

      • GPAI 모델을 자사의 AI 시스템에 통합할 계획이 있는 제3의 개발 및 공급업체에게 기술 정보를 제공

      • 훈련데이터 설명과 요약 제공, 저작권보유자가 선택적으로 파운데이션모델에서 자신의 데이터를 제외할 수 있도록하는 장치 제공, 에너지 소비량 명시

    • EU 저작권법 준수를 위한 자체 정책이 갖추어져 있어야 함

    • 오픈 소스모델은 저작권법 준수의 의무와 훈련데이터의 설명과 요약을 공개하는 의무만을 갖는다 - 오픈소스라도 아래 시스템적 위험을 갖는 모델 아래 시스템적 위험 층위 의무사항을 준수해야함

      • 오픈 모델? 이미 가중치를 포함한 매개변수, 모델 구조와 사용법이 공개되어 있으며, 또한 모델의 접근, 사용, 수정 및 배포가 공개적으로 허용된 모델

  • 시스템적 위험 층위 의무사항: 기본 층위 GPAI 의무사항을 포함하며 추가도 다음의 의무사항이 부과됨

    • 모델 평가 수행

      • 체계적인 위험을 평가하고 완화

      • 모델의 적대적 훈련 (즉, '레드 팀 테스트’ ) 수행

    • 체계적 위험 평가의 개요와 취해진 완화 조치를 공개하는 추가적인 투명성 의무를 준수해야 함

    • 발견된 심각한 사건과 그에 취해진 수정 조치를 유럽 위원회에 문서화여 보고

    • 적절한 사이버 보안 및 물리적 보호 수준 확보

이상의 규제가 빠르게 발전하는 GPAI의 혁신을 가로막지 않게하기 위하여 EU 인공지능 사무소(EU AI office)는 다음과 같은 조치를 취할 계획이다. 

  • 시스템적 위험 층위의 고영향 GPAI에 대한 지정 기준을 수정: FLOP를 기준으로 새로운 GPAI 모델의 객관적 능력을 측정하고, 특정 성능 수준에 요구되는 컴퓨팅 파워의 발전에 따라 시스템적 위험 층위의 고영향 GPAI에 대한 지정 기준을 상향 혹은 하향 조정할 수 있다. 또한 이 수정안의 내용으로는 모델 매개 변수의 갯수, 데이터 세트의 품질 또는 크기, 등록된 비즈니스 또는 최종 사용자 수와 관련된 기준 등을 포함할 수도 있다.

  • 법적 의무사항의 준수를 지원하기 위한 실천 지침 개발 지원

EU 인공지능법 집행기관 및 절차

EU 인공지능법은 각 회원국의 관련법의 상위법으로 적용되는 선제법이다.각 회원국은 국가 담당 기관을 지정하여 EU 인공지능법 적용과 실행을 감독하고 현장에서 법령 이행  모니터링 활동을 수행할 예정이다. 이들 기관은 시장 감시 기관(Market Surveillance Authority: MSA)으로서 규제 감시 기능과 권한을 갖는 정부기관으로, 약 1~25명 직원으로 구성될 것으로 제안되고 있다. 회원국내 효과적이고 균일한 법령 시행을 위해 EU는 다음과 같은 새로운 기관과 대표 모임 등을 설치 운영할 예정이다.

EU 인공지능 이사회(EU AI Board): 회원국의 관련 기관 대표, 유럽데이터 보호 감독관 및 EU 집행위원회의 고위급 대표로 구성. 

  • AI 법령 및 해당 규정의 원할하고 효과적이며 조화된 시행을 지원

  • 위험 요소가 있는 AI 시스템 및 새로운 규칙의 효과적이고 균일한 실행을 위한 의견과 권고를 EU 집행위원회에 제시

  • EU 인공지능 사무소에 대한 전략적 감독 (GPAI 모델의 실천 규범의 개발 및 법령 시행을 위한 기술 표준화 활동 지원 포함)

EU 인공지능 사무소(EU AI Office) : EU 집행위원회내 기능적으로 독립된 기관

  • EU내 인공지능 전문지식과 역량을 보유하여 EU내 중앙집중화된 구조에서, 각 회원국에서 EU 인공지능 법령 실행을 지원    

  • GPAI 모델의 규칙 시행 지원: 규칙을 자세히 설명하는 실천 규칙을 작성, 시스템적 위험을 가진 모델 분류, 규칙의 효과적인 시행 및 규정 준수를 모니터링

  • GPAI 모델의 규정 준수 여부 감독:  체계적인 위험을 가진 모델을 분류하고, 모델 평가 수행, 경고에 대한 조사 및 공급 업체에 수정 조치를 요청 등. 회원국의 관할 기관이 아닌 EU 인공지능 사무소가 직접 감독

  • 인공지능 정책과 관련한 EU 기관 및 기구, 또한 이들간의 조정 및 협력 추진

  • 과학 커뮤니티와 강력한 연결고리를 제공하고, 독립 전문가 및 전문 기관을 위한 국제적인 모범사례 제공의 역할을 하며 전 세계의 유사한 기관과 교류 및 협력 촉진

독립 전문가 과학위원회 (Science Panel of Independent Experts):  EU 인공지능 사무소 활동을 지원하기 위한 독립 전문가로 구성된 과학 패널

  • GPAI 모델의 능력을 평가하기 위한 방법론 개발에 기여. 모델 분류에도 참여하며, 가능한 안전과 위험 모니터링

자문단 (Advisory Forum):  산업계 (빅테크, 스타트업, 중소기업), 학계, 시민사회대표로 구성. 인공지능 이사회에 기술적 전문지식과 의견 제공 

과징금 

이상과 같은 법령의 위반시 부과할 과징금은 정의된 의무사항에 따라 다르며, 그 상세한 내용은 다음과 같다. 

  • 용인할 수 없는 AI 사용금지 규정 위반의 경우 최고 3,000만 유로(약 436억 원) 또는 글로벌 연매출액의 6% 중 더 큰 금액 

  • 고위험군의 의무사항 위반시에는 최고 1,500만 유로(약 218원) 또는 글로벌 연매출액의 3% 중 더 큰 금액 

  • 인증기관과 관할 당국에 부정확, 불완전, 오해의 소지가 있는 정보를 제공한 경우 최고 750만 유로(약 109억 원) 또는 글로벌 연매출액의 1.5% 중 더 큰 금액

  • 중소기업의 위반시 부과된 과징금 금액의 두 기준 중 더 낮은 금액 

향후 일정  

Table 1. EU AI법 발효까지의 향후 일정
일정 법안 발효까지의 과정 
2024년 1사분기 현재 잠정안의 최종 문구 결정. 결정 후 EU의회, EU 이사회의 승인
2024년 2사분기~3사분기  현재 잠정안 최종안으로 공포 및 발효 개시 
2024년 2사분기~3사분기 최종안 발효 직후  AI 법령 이행 감독기구인 EU AI 사무소 설립을 위한 작업시작. 
각 EU 회원국은 AI 규제 샌드박스 제정 
2024년부터 법 시행기간동안  법적 기한에 맞추어 AI 법령 의무를 이행하기 위해 EU 집행위원회와 자발적으로 협력할 조직과 함께 AI 협정 개시
법효력 발동이후 6월:
2024년 4사분기-2025년 1사분기
용납할 수 없는 AI 시스템 금지조항 발효 및 집행
법효력 발동이후 12개월:
2025년 2사분기~3사분기
파운데이션 모델을 포함한 범용 인공지능 (General-Purpose AI) 관련 의무사항  (의무사항의 구제적 조항 공식 재확인 필요) 발효 및 집행

법효력 발동이후 24개월:
2026년 2사분기~3사분기

AI 법령 모든 의무사항 (고위험군 AI 관련 의무사항 포함) 발효 및 집행

더 상세한 내용

EU AI 법안 2024년 3월 13일 EU 의회에서 통과된 법안의 좀 더 자세한 내용은 인공지능과 데이터 거버넌스 - 원칙과 규제(유럽연합)에 정리하였습니다. 시스템 유형에 따른 의무사항의 좀 더 자세한 내용(준수성 평가, 위험평가, 기본권 영향 평가 등 포함)과 그러한 의무사항이 누구에게 부여되는 것인지, 현재 가장 많이 언급되는 비판은 무엇인지 등이 정리되어있습니다. 다음 글은 EU AI 법안이 가져올 변화를 소개하겠습니다.

참고자료

임형주 (2023) “인공지능 관련 법 제도의 주요 논의 현황”  TTA 저널 특집 스페셜 리포트 207호, 2023년 05/06월호  

EU Artificial Intelligence Act (2024) 2024년 1월 21일: 최종안 - EU AI Act Texts - Final Draft in 2024

EU Commission (2023) “Artificial Intelligence Questions and Answers”, European Commission, 12 December 2023

EU Parliament (2023) “Artificial Intelligence Act: deal on comprehensive rules for trustworthy AI” 9 December 2023

EY (2023) “Political agreement reached on the EU Artificial Intelligence Act”, EYG no. 011630-23Gbl, 10 December 2023

Veale, Michael, and Frederik Zuiderveen Borgesius  (2021) “Demystifying the Draft EU Artificial Intelligence Act”, A Journal of International Law and Technology, SocArXiv. July 6. doi:10.9785/cri-2021-220402.

Gross, Killan, DG CONNECT EU Commission (2024) From Brussels to the Bay: EU AI Act  

Comment