본문으로 바로가기

제도동향

EU, AI법 시행과 한국의 대응: AI 산업육성과 규제 간의 철학 재정립 및 대응체계 조속히 구축해야

  • 등록일2024-08-30
  • 조회수871
  • 분류제도동향 > 종합 > 종합
  • 자료발간일
    2024-08-20
  • 출처
    과학기술정책연구원
  • 원문링크
  • 첨부파일

 

EU, AI법 시행과 한국의 대응: AI 산업육성과 규제 간의 철학 재정립 및 대응체계 조속히 구축해야

• 성경모 과학기술외교안보연구단장


EU AI법 시행은 고위험 AI 규제 필요성에 대한 철학 재정립 기회 제공.

최근 정상급회의에서 논의된 ‘안전한 AI’와 관련 국내 규제체계와

산업육성의 균형된 시각 확보 및 국제협력을 추진할 수 있는

법적·제도적 기반 조속히 정비해야.


EU, AI법은 AI기술에 대한 인식과 접근 방향 재정립 중

○ EU AI법은 AI 산업육성과 규제 사이의 절충을 고민한 접근

 - 유럽 내 AI 기술개발을 지원하는 ‘AI 혁신 패키지(AI Innovation Package)’와 사용자와 개발자에 안전하고 기본권을 보장하는 AI 생태계 조성을 위한 ‘AI 조정 계획(Coordination Plan on AI)’이 포함됨

 - 미국과 중국 등 주요 경쟁자들에 비해 크게 뒤처진 AI 분야의 혁신을 EU 차원의 AI 규제 법안 마련을 통해 EU 중심으로 재편하며, 특히 시민의 기본권 보호에 맞춰 AI 윤리의 발전을 보장해야 함을 강조

 - 신흥기술 발전으로 인해 발생할 수 있는 위험과 잠재적인 남용 가능성을 고려하여 법 적용의 유연성 확보

 AI 관련 위험으로부터 개인정보 보호, 민주주의, 법치주의, 지속가능환경 유지 등 EU의 핵심가치와 시민의 기본권을 보호하는데 방점

 - AI에 대한 투자·혁신을 촉진하기 위한 법적 정당성 확보, AI에 적용되는 기본권 및 보안 요구사항에 대한 법적 구속력을 강화하고, 역내 도입된 AI 시스템이 안전하고 시민의 기본권과 EU 가치를 존중하는지 확인

 - 유럽의회는 상기 핵심목표에 기반하여 AI를 개발·사용하는 기업에 대한 의무를 설정하고, AI가 생성할 수 있는 위험과 영향을 제한하고자 노력(testachats, 2024.03.28.)

 EU 역내 활용될 AI 시스템의 ①안전성, ②투명성, ③추적가능성, ④비차별성, ⑤환경친화성 보장

 - AI 시스템은 자동화가 아닌 인간의 감독을 통해 해로운 결과를 예방 가능하다는 전제와 동시에 미래의 AI 시스템에 적용 가능한 기술 중립적이고 통일된 정의 확립(European Parliament, 2023.12.19.)

  * AI 시스템을 ‘다양한 수준의 자율성으로 작동하도록 설계되었으며, 명시적 또는 암묵적 목표를 위해 영향을 미치는 기계 기반 (machine-based) 시스템’으로 정의(법률신문, 2023.05.31.)

○ AI로 인한 위험수준에 따라 공급자(provider)와 배포자(deployer)의 의무를 설정함

 - AI법은 주된 적용대상을 배포자로 규정하지만 예외적으로 서비스 제공을 위해 제3자의 인프라를 사용하는 경우를 포함하여 공급자도 적용대상으로 한다는 점에서 차이 존재

  * AI 시스템의 배포자(일부 EU 문서에서는 여전히 "사용자"로 오해의 소지가 있음)는 AI 시스템이 자체 책임 하에 AI 시스템을 사용하는 자연인 또는 법인, 공공기관, 기관 또는 기타 기관을 의미(Spies et al., 2024.02.12.)


위험기반 접근(risk-based approach)에 따른 차등적 규제

 EU AI법은 AI를 ▲허용불가한 위험, ▲고위험, ▲투명성 위험, ▲최소 위험 등급 분류, 차등 규제함

• 그림 1 • EU AI법의 위험기반 접근법


 

자료: European Parliament Research Service(2024)


 허용 불가한 위험(Unacceptable risk) AI

 - ① 사람의 잠재의식 기술을 이용하거나 의도적으로 교묘하게 또는 기만적 기술을 이용하여 사람의 의사결정 능력을 손상시킬 수 있는 AI 시스템, ② 나이, 신체, 사회적 또는 경제적 상황 등에 기반한 특정 그룹의 취약성 악용, ③ 소셜 스코어링(social scoring: 인터넷상 개인이나 기업의 사회적 영향력을 수치화)과 같이 공공기관이 AI를 통한 개인의 신뢰도를 평가, ④ 의료 또는 안전상의 이유를 제외하고 직장이나 교육기관에서 감정을 추론, ⑤ 생체인식과 같은 특정정보를 실시간으로 인종, 신념, 성적 취향, 개인 생체정보를 수집하는 AI

  * 범죄수사(프로파일링)와 군사·테러 공격과 같은 국가안보에 대한 위협이나 공공 안전의 목적을 가진 이슈에 대해 공공기관의 생체정보의 활용이나 실시간 원격 생체인식기술 사용을 예외적으로 허용

 고위험(High risk) AI

 - 유럽연합조정법(The Union Harmonisation Law)이 적용되는 제품으로서 보건, 국민안전, 기본권(차별금지, 표현의 자유, 인간의 존엄성, 개인정보 보호·프라이버시)을 위협할 소지가 있는 AI 시스템을 포함하며, 이들이 EU시장 진입을 위해서는 적합성 평가 등의 의무가 부과됨

  * 도로·철도·항공과 같은 교통 인프라, 교육·직업훈련·고용·근로자 관리, 공공·민간 서비스에 대한 접근(건강보험, 전기, 냉난방, 인터넷, 신용점수), 법 집행, 이주, 망명 및 국경통제 관리 등 사법, 민주절차의 관리 등에 적용되는 AI 시스템

  * 고위험에 해당하는 AI 시스템은 위험관리 시스템의 구축·실행·유지·데이터 품질 기준 충족 및 관리, 기술문서의 작성 및 최신상태 유지, 기록 이력추적, 일정 수준의 정확성과 견고성, 사이버 보안의 확보 등 매우 높은 요구사항을 부과함

 투명성 위험(Transparency risk/limited risk) AI

 - 자연인과 상호 작용하거나 콘텐츠를 생성하기 위한 특정 AI 시스템은 고위험 여부에 관계없이 사칭이나 사기의 특정 위험을 초래할 수 있음. 이러한 시스템에는 정보 및 투명성 요구사항이 적용됨

  * 생성형 AI 콘텐츠는 인간과 높은 정서적 교류가 가능한 대표적인 AI 유형이기 때문에 그 공급자(provider)는 사용자(user)에게 해당 AI 시스템으로 말미암아 인간이 AI 시스템과 교류하고 있다는 점을 혼동하지 않도록 명확하게 사전 고지해야할 의무 부과

  * 이미지, 오디오 또는 비디오 콘텐츠(예: 딥 페이크)를 생성하거나 조작하는 AI 시스템의 배포자(deployer)는 매우 제한된 경우(예: 범죄예방 목적)를 제외하고 해당 콘텐츠가 인위적으로 생성되거나 조작되었음을 공개해야 함

  * 대량의 합성 콘텐츠를 생성하는 경우 AI 시스템 공급자(provider)는 충분히 신뢰할 수 있고 상호운용 가능하며 효과적이고 강력한 기술과 방법(예: 워터마크)을 통해 결과물이 사람이 아닌 AI에 의해 생성되었음을 표시하고 탐지할 수 있어야 함

 저위험 및 최소위험(Low & Minimal risk) AI

 - 상대적으로 위험도가 낮은 AI는 현재 적용되는 법률(ex. GDPR) 외에 추가의무가 부과되지는 않으나 고위험 AI 시스템과 같이 향후 투명성과 신뢰성을 확보하기 위한 자발적인 행동강령의 제정을 촉구

  * ‘스팸 필터’처럼 AI 서비스나 비즈니스 운영이 사회적으로 무해하다고 판단되면 저위험 등급으로 분류, 저강도 규제대상에 해당

 범용 AI(GPAI) 모델과 시스템적 위험을 초래하는 범용 AI 모델에 대한 규칙 제공

 - (투명성 요구) 모든 GPAI 모델은 최신 기술문서를 작성·유지해야 하며 AI 시스템의 다운스트림 공급자가 정보와 문서를 사용할 수 있어야 함. 또한 GPAI 모델의 모든 공급자는 저작권지침에 따라 합법적인 텍스트 및 데이터 마이닝 수행 위해 최첨단 기술(예: 워터마킹)을 포함한 EU 저작권법 존중정책 마련 필요

  * GPAI는 AI Office(규제기관)에서 제공한 템플릿에 따라 GPAI 모델 교육에 사용된 내용에 대한 충분히 상세한 요약을 작성하고 공개적으로 제공해야 함(European Parliament Research Service, 2024) 과징금 등 제재 규정 및 예외·조정 거버넌스 마련

 위반에 대한 제재 및 기업규모별 과징금의 차등 부과

 - 허용불가능한 AI의 경우, 위반 시 최대 3,500만€(약 508억원) 또는 직전 회계연도의 전세계 연매출의 7% 이하 중 더 높은 금액의 과태료를 부과. 기업규모별로 차등 부과되며, 중소기업이 규제법을 위반한 경우 최대 750만€(약 109억원) 또는 전세계 연매출의 1.5%를 과징금 부과(글로벌 서플라이 체인,n.d.)

 중소기업·스타트업 등에 대해서는 완화된 규제 적용

 - 고위험 AI 시스템에 이용되는 도구·서비스·구성요소의 공급에 관한 계약조건, 계약위반 또는 종료에 대한 조건이 중소기업에 일방적이고 불공정하게 부과될 때 해당 규제는 효력 없음(법률신문, 2023.05.31.)

 - EU AI법은 ‘규제 샌드박스’를 도입하여 EU 기업들의 혁신과 경쟁력 강화를 유도하는 한편, 개발된 AI 제품과 서비스가 규정을 제대로 준수하는지 상용화 전 사전테스트를 해 볼 수 있는 환경도 보장

  * EU AI Act 57조에서 명시된 규제 샌드박스의 목표 중 하나로 혁신과 경쟁력 촉진을 통해 EU 역내 AI 생태계 발전을 장려하고 안전한 AI의 활용과 새로운 시장 개척 사이의 균형을 모색하고자 하는 시도로 이해(EU AI Act, 제57조)

 EU 역내 AI 조정·감독 거버넌스 수립

 - EU AI 사무국(AI Office)을 신설하여 AI Act 이행을 위한 EU 내 단일 거버넌스 체계 유지 및 AI 모델에 대한 감독·심사를 수행하도록 명시(채은선·채기현, 2024)


..................(계속)

 

☞ 자세한 내용은 내용바로가기 또는 첨부파일을 이용하시기 바랍니다.


 


 


 


 


자료 추천하기

받는 사람 이메일
@
메일 내용