기타 계 최초의 주요 AI 법률이 발효되었습니다. 이것이 미국의 기술 거대 기업에 어떤 의미를 갖는지 알아보세요.
페이지 정보
본문
계 최초의 주요 AI 법률이 발효되었습니다. 이것이 미국의 기술 거대 기업에 어떤 의미를 갖는지 알아보세요.
유럽연합의 획기적인 인공지능법이 목요일에 공식 발효됩니다. 이는 미국의 기술 거대 기업들에게 힘든 변화를 의미합니다.
AI법은 기업에서 AI를 개발, 사용 및 적용하는 방식을 규제하는 획기적인 규정으로, 5월에 EU 회원국, 의원, EU의 행정 기관인 유럽 위원회에서 최종 승인을 받았습니다.
CNBC에서는 AI법에 대해 알아야 할 모든 것을 살펴보고, 이 법이 세계 최대의 기술 기업에 어떤 영향을 미칠지 알아보았습니다.
AI법이란 무엇입니까?
AI법은 인공지능을 관장하는 EU 법률입니다. 2020년 유럽 위원회가 처음 제안한 이 법은 AI의 부정적 영향을 해결하는 것을 목표로 합니다.
이 규정은 EU 전역에서 AI에 대한 포괄적이고 조화로운 규제 프레임워크를 제시합니다.
이 공격은 현재 가장 진보된 AI 시스템을 주로 구축하고 개발하고 있는 대형 미국 기술 기업을 주로 타깃으로 삼을 것입니다.
하지만, 기술 기업이 아닌 다른 기업도 이 규칙의 범위에 포함됩니다.
브뤼셀에 있는 로펌 Linklaters의 기술, 미디어 및 기술 업무 부문 책임자인 Tanguy Van Overstraeten은 EU AI법이 "세계 최초의 종류"라고 말했습니다.
"이는 많은 기업, 특히 AI 시스템을 개발하는 기업뿐만 아니라 특정 상황에서 이를 배포하거나 사용하는 기업에도 영향을 미칠 가능성이 높습니다."
이 법안은 AI를 규제하는 데 위험 기반 접근 방식을 적용합니다. 즉, 기술의 다양한 응용 프로그램은 사회에 초래하는 위험 수준에 따라 다르게 규제됩니다.
예를 들어, "고위험"으로 간주되는 AI 애플리케이션의 경우 AI법에 따라 엄격한 의무가 도입됩니다. 이러한 의무에는 적절한 위험 평가 및 완화 시스템, 편향 위험을 최소화하기 위한 고품질 교육 데이터 세트, 활동의 정기적 로깅, 규정 준수를 평가하기 위해 모델에 대한 자세한 문서를 당국과 의무적으로 공유하는 것이 포함됩니다.
고위험 AI 시스템의 예로는 자율주행차, 의료 기기, 대출 결정 시스템, 교육 채점, 원격 생체 인식 시스템 등이 있습니다.
이 법안은 또한 위험 수준 측면에서 "수용할 수 없다"고 간주되는 AI의 모든 적용에 대한 전면적인 금지를 부과합니다.
허용할 수 없는 위험의 AI 애플리케이션에는 시민의 데이터를 집계하고 분석하여 순위를 매기는 "소셜 스코어링" 시스템, 예측적 경찰 활동, 직장이나 학교에서의 감정 인식 기술 사용이 포함됩니다.
이는 미국 기술 기업에 어떤 의미를 갖나요?
Microsoft 와 같은 미국의 거대 기업 , Google, 아마존, 사과, 그리고 메타 전 세계적으로 인공지능 기술에 대한 열풍이 거세지면서, 인공지능 분야를 선도할 수 있다고 생각되는 회사들과 적극적으로 협력하고 이들 회사에 수십억 달러를 투자해 왔습니다.
Microsoft Azure, Amazon Web Services, Google Cloud와 같은 클라우드 플랫폼도 AI 모델을 훈련하고 실행하는 데 필요한 방대한 컴퓨팅 인프라를 감안할 때 AI 개발을 지원하는 데 중요합니다.
이런 측면에서, 새로운 규칙에 따라 가장 집중적으로 표적이 될 기업은 의심할 여지 없이 빅테크 기업이 될 것입니다.
"AI법은 EU를 훨씬 넘어서는 의미를 가지고 있습니다. EU에서 운영이나 영향을 미치는 모든 조직에 적용되므로 AI법은 어디에 있든 적용될 가능성이 큽니다." 기업 소프트웨어 회사 Appian의 EMEA 및 LATAM 수석 부사장인 찰리 톰슨이 이메일을 통해 CNBC에 말했습니다.
Thompson은 "이로 인해 EU 시장에서의 운영과 EU 시민 데이터 사용과 관련하여 기술 거대 기업에 대한 감시가 훨씬 더 강화될 것"이라고 덧붙였습니다.
Meta는 규제 문제로 인해 이미 유럽에서 AI 모델의 가용성을 제한했습니다. 그러나 이러한 조치는 반드시 EU AI법 때문은 아닙니다.
Facebook의 모회사는 이번 달 초에 EU에서 LLaMa 모델을 출시하지 않겠다고 밝혔으며, 해당 모델이 EU의 일반 데이터 보호 규정(GDPR)을 준수하는지 여부가 불확실하다고 언급했습니다.
이 회사는 GDPR을 위반할 수 있다는 우려로 인해 EU의 Facebook과 Instagram 게시물을 이용해 모델 훈련을 중단하라는 명령을 받은 바 있습니다.
기업 기술 대기업 Salesforce의 정부 업무 담당 부사장인 에릭 뢰브는 CNBC와의 인터뷰에서 다른 정부들도 EU의 AI법을 각자의 정책에 대한 청사진으로 참고해야 한다고 말했습니다.
유럽의 "위험 기반 규제 프레임워크는 혁신을 장려하는 동시에 기술의 안전한 개발과 배포를 우선시하는 데 도움이 됩니다."라고 Loeb는 말하며 "다른 정부도 자체 정책 프레임워크를 만들 때 이러한 도로 규칙을 고려해야 합니다."라고 덧붙였습니다.
그는 "EU와 그 너머에서 해야 할 일이 아직 많으며, 다른 국가들이 상호 운용 가능한 위험 기반 프레임워크를 정의하고 구현하는 것을 계속 추진하는 것이 중요합니다."라고 덧붙였습니다.
생성 AI는 어떻게 처리되나요?
생성 AI는 EU AI법에서 "범용" 인공지능의 한 예로 분류됩니다.
이 라벨은 인간과 비슷하거나 그보다 더 나은 수준에서 광범위한 작업을 수행할 수 있도록 만들어진 도구를 말합니다.
범용 AI 모델로는 OpenAI의 GPT, Google의 Gemini, Anthropic의 Claude 등이 있지만 이에 국한되지는 않습니다.
이러한 시스템에 대해 AI법은 EU 저작권법을 준수하고, 모델이 어떻게 훈련되는지에 대한 투명성을 공개하고, 일상적인 테스트와 적절한 사이버 보안 보호를 시행하는 등 엄격한 요구 사항을 부과합니다.
하지만 모든 AI 모델이 동등하게 취급되는 것은 아닙니다. AI 개발자들은 EU가 오픈소스 모델(대중에게 무료이며 맞춤형 AI 애플리케이션을 구축하는 데 사용할 수 있음)이 너무 엄격하게 규제되지 않도록 해야 한다고 말했습니다.
오픈소스 모델의 예로는 Meta의 LLaMa, Stability AI의 Stable Diffusion, Mistral의 7B 등이 있습니다.
EU는 오픈소스 생성 AI 모델에 대한 몇 가지 예외를 규정하고 있습니다.
하지만 규칙 면제 자격을 얻으려면 오픈소스 공급업체는 가중치, 모델 아키텍처, 모델 사용을 포함한 매개변수를 공개적으로 사용할 수 있게 하고 "모델에 대한 접근, 사용, 수정 및 배포"를 가능하게 해야 합니다.
AI법에 따르면 "체계적" 위험을 초래하는 오픈소스 모델은 면제 대상이 되지 않습니다.
반 오버스트라텐은 "규칙이 적용되는 시점과 관련 이해 관계자의 역할을 신중하게 평가하는 것이 필요하다"고 말했습니다.
회사가 규칙을 위반하면 어떻게 되나요?
EU AI법을 위반한 기업은 3,500만 유로(4,100만 달러) 또는 전 세계 연간 매출의 7%(어느 쪽이 더 높은 금액)에서 750만 유로 또는 전 세계 연간 매출의 1.5%까지의 벌금을 부과받을 수 있습니다.
벌금의 규모는 위반 사항과 벌금을 부과받는 회사의 규모에 따라 달라집니다.
이는 유럽의 엄격한 디지털 개인정보 보호법인 GDPR에 따라 부과할 수 있는 벌금보다 높습니다. 기업은 GDPR 위반에 대해 최대 2,000만 유로 또는 연간 글로벌 매출의 4%에 해당하는 벌금을 내야 합니다.
이 법의 범위에 속하는 모든 AI 모델(일반 용도 AI 시스템 포함)에 대한 감독은 2024년 2월에 위원회가 설립한 규제 기관인 유럽 AI 사무소의 관할을 받게 됩니다.
핀테크 기업 Linedata의 자산 관리 글로벌 책임자인 Jamil Jiva는 CNBC에 EU가 "규제가 효과를 발휘하려면 위법 기업에 상당한 벌금을 부과해야 한다는 것을 알고 있다"고 말했습니다.
GDPR이 EU가 글로벌 차원에서 "규제적 영향력을 유연하게 적용해 데이터 프라이버시 모범 사례를 의무화"할 수 있는 방식을 보여준 것과 유사하게, AI법을 통해 이 블록은 다시 이를 복제하려 하고 있지만, Jiva는 AI를 위해서라고 덧붙였다.
하지만 AI법이 마침내 발효되었지만, 해당 법률의 대부분 조항이 실제로 발효되는 것은 적어도 2026년 이전일 것입니다.
AI법이 시행된 후 12개월이 지나야 일반 목적 시스템에 대한 제한이 적용됩니다.
현재 상업적으로 이용 가능한 생성 AI 시스템(예: OpenAI의 ChatGPT 및 Google의 Gemini)도 시스템을 규정 준수 상태로 만들기 위해 36개월의 "전환 기간"이 부여됩니다.
관련링크
댓글목록
등록된 댓글이 없습니다.