최근 유럽연합(EU)이 새로운 EU AI 규제법을 발표하면서, 전 세계 기술 및 투자 기업들에 주목을 받고 있습니다.
특히 국내 투자자들에게 많이 알려진 구글, 마이크로소프트, 오픈 AI 등 빅테크 기업들의 실적과 주가에도 많은 영향을 끼칠 것으로 예상됩니다.
특히 이 법안은 특히 고위험 AI 시스템에 대한 엄격한 규제를 포함하고 있어, 투자자들의 수익률에도 중대한 영향을 미칠 것으로 보입니다. 본 글에서는 이 법안의 주요 내용과 그에 따른 빅테크 기업의 투자 전략 변화를 살펴보겠습니다.
목차
- 서론 : EU AI Act 도입 배경
- 서비스 위험도에 따른 차등 규제
- 고위험 AI의 정의와 규제내용
- 범용 AI와 투명성 의무
- 위험 등급에 따른 규제
- 시사점 및 투자전략
서론: EU AI Act 도입 배경
인공지능(AI)은 현대 기술의 가장 혁신적인 발전 중 하나입니다.
그러나 인공지능 기술의 급속한 발전은 윤리적, 법적 문제 발생을 유발하며 사회적 부작용도 생기는 것이 사실입니다.
딥페이크와 사생활 침해, 저작권 소송 등 여러 가지 문제들이 발생하고 있습니다.
EU는 이러한 문제에 대응하기 위해, 유럽연합(EU)은 세계 최초의 포괄적 EU AI 규제법을 도입했습니다.
입법 배경 및 목적
EU는 AI 기술이 기본 권리와 안전, 윤리 원칙을 존중하도록 하고자 합니다.
EI AI 규제법은 유럽뿐만 아니라 전 세계적으로 신뢰할 수 있는 AI 환경을 조성하는 것을 목적으로 합니다.
이 법은 기술이 사회에 긍정적 영향을 미치도록 유도하며, 동시에 발생할 수 있는 위험을 최소화하고자 합니다.
적용 대상
EU 시장에서 서비스되는 모든 AI 시스템은 EU AI 규제안의 적용을 받습니다. 국적과 관계없이 모든 기업이 포함되며, 연구 및 개발 단계는 제외됩니다.
입법 추진 경과 및 향후 일정
2021년 4월 초안 발의 이후, 2023년 4월 13일에 EU 의회에서 최종 통과되었습니다.
EU AI 규제법은 2023년 5월 중 발효될 예정이며, 2026년부터 전면 시행됩니다. 발효 후 6개월 이내에 AI 서비스의 위험도에 따라 순차적으로 규제가 시작될 것입니다.
서비스 위험도에 따른 차등 규제
AI 서비스는 위험도에 따라 네 가지 등급으로 분류됩니다.
1. 수용불가한 위험(Prohibited Risk): 이 등급의 AI 개발과 사용은 금지됩니다. 예를 들어, 실시간으로 개인의 생체정보를 수집하고 식별하는 기술이 여기에 해당됩니다.
2. 고위험(High Risk): 고위험 AI에는 엄격한 규제가 적용됩니다. 이러한 AI는 주로 중요한 사회적 기능을 수행하는 분야에서 사용됩니다.
3. 제한된 위험(Limited Risk): 이 등급의 AI는 사용자에게 특정 경고를 제공해야 하는 등 제한적 규제가 적용됩니다.
4. 최소 위험(Minimal Risk): 대부분의 AI 서비스가 이 등급에 속하며, 상대적으로 자유롭게 개발 및 배포가 가능합니다.
고위험 AI의 정의와 규제 내용
EU는 고위험 AI를 국가 인프라, 필수 공공 서비스, 사법 등 사회에 대규모 혼란을 일으킬 수 있는 시스템으로 분류합니다.
이러한 시스템들은 사람들의 안전과 기본권과 직접적으로 관련되어 있으며, 출시 전후로 인적 감시를 포함한 엄격한 위험 관리 체계가 요구됩니다.
이는 해당 시스템들이 출시 전 적합성 평가를 통과해야 하며, 시스템에 변경이 있을 경우 해당 평가 과정을 다시 거쳐야 한다는 것을 의미합니다.
또한, 이러한 시스템은 EU 공공 데이터베이스에 등록되어야 하며, 사용자가 위험에 노출될 가능성을 최소화하기 위한 품질 및 위험 관리 시스템을 구축해야 합니다.
범용 AI와 투명성 의무
범용 AI에 대해서는 특히 투명성 의무가 부과됩니다. 오픈 AI의 챗GPT와 구글의 제미나이와 같은 서비스가 바로 이러한 범용 AI에 해당합니다.
범용 AI란 인간에 준하는 수준의 지능을 갖추고 스스로 사고할 수 있는 인공지능을 의미합니다.
이러한 AI를 개발하는 기업은 시스템의 안전성과 AI 법 준수 여부를 확인하기 위한 정보를 공개해야 하며, AI 학습에 사용된 자료의 출처와 EU 저작권법 준수 여부를 명시해야 합니다.
위험 등급에 따른 규제
최소 위험 AI: 위험성이 크지 않다고 판단되는 AI, 예를 들어 스팸 메일 차단, 검색 및 추천 엔진 등은 추가적인 규제 없이 사용 가능합니다. EU는 현재 사용되는 대부분의 AI 시스템이 이 최소 위험 등급에 속한다고 밝혔습니다.
위반 시 제재: 법을 위반했을 경우 최대 3,500만 유로 또는 연간 총매출액의 7%에 해당하는 벌금이 부과될 수 있습니다.
시사점 및 투자 전략
빅테크 기업들의 기술이 쓰인 범용 AI는 제한된 위험 등급에 해당되어 앞으로 투명성 의무가 부과됩니다.
오픈 AI의 EU의 AI 챗GPT, 구글 딥마인드의 제미나이(Gemini) 등이 이에 해당됩니다. 이러한 법 규제는 미국의 빅테크 기업들에게 중대한 영향을 미칠 것입니다.
규제는 이러한 기술 발전의 속도를 둔화시킬 수 있으며, 일부 기업이 규제의 영향을 회피하기 위해 EU 밖으로 사업을 이전할 가능성도 있습니다.
그러나 동시에, 이는 빅테크 기업들에게 새로운 기회의 장이 될 수 있습니다. 예를 들어, 규제를 준수하는 AI 기술 개발에 초점을 맞추거나, EU 내에서의 파트너십을 강화하는 등의 전략을 취할 수 있습니다.
투자자들은 이러한 규제 변화를 면밀히 모니터링하고, 해당 규제가 특정 기업이나 기술에 어떤 영향을 미칠지 예측하여 투자 전략을 조정해야 합니다.
특히 AI 기술의 안전성과 투명성을 강조하는 기업들은 장기적으로 유리한 위치에 서게 될 가능성이 높습니다.
결론
EU의 AI 규제 법안은 기술 산업 전반에 걸쳐 큰 변화를 가져올 것입니다.
이러한 변화는 기업들에게 도전이 될 수 있지만, 적절한 전략을 통해 기회로 전환될 수 있습니다.
투자자들은 이러한 규제 변화를 이해하고, 미래의 투자 전략에 적극 반영해야 할 것입니다.