검색 상세

고위험 인공지능시스템의 기본권 침해에 관한 헌법적 연구

A Constitutional Study on the Infringement of Basic Rights by High-Risk Artificial Intelligence Systems

초록 (요약문)

현대 지능정보사회에서 고위험 인공지능시스템은 사적영역과 공적영역을 불문하고 사회 곳곳에서 다양하게 활용되고 있다. 특히, 사적영역에서는 채용업무나 신용평가 및 뉴스 제공 서비스 등에서 인공지능 기술이 활용되고 있으며. 공적영역에서도 인공지능을 활용한 자동화된 행정처분과 법관의 재판업무를 지원하는 인공지능시스템의 도입이 논의되고 있다. 특히 미국과 영국에서는 형사 피고인의 재범위험을 평가하는데 인공지능을 활용하고 있다. 이처럼 고위험 인공지능시스템은 업무처리의 신속성과 효율성 제고로 사회혁신과 경제발전을 견인하여 기대와 주목을 받고 있지만, 차별과 편향에 대한 우려가 적지 않으며 다양한 기본권 침해 문제에 대한 헌법적 해명이 필요하다. 고위험 인공지능시스템은 기본권의 충돌을 야기하기도 하는데, 인공지능의 데이터와 알고리즘 정보에 대한 설명을 요구하는 이용자의 알 권리와 해당 인공지능의 구체적인 정보 공개를 꺼리는 사업자의 영업의 자유가 서로 충돌될 수 있다. 여기서 이용자는 고위험 인공지능시스템의 기본권 침해에 관하여 국가의 기본권보호의무를 요구할 수 있다. 현재 국회에는 인공지능 관련 법률안이 계류되어 있기는 하지만, 아직까지 고위험 인공지능시스템을 별도로 규율하는 현행 법률은 제정되지 않았다. 무엇보다도 중대한 기본권 침해를 야기할 수 있는 고위험 인공지능시스템을 실효성 있게 규율하기 위해서는 무엇이‘고위험’영역에 해당하는지 구체적인 정의를 규정할 필요가 있다. 우선 본 연구에서는 인공지능시스템의 잠재적 위험을 고려한 위험기반 접근을 통하여 평등권과 알 권리 및 재판청구권 침해를 야기할 수 있는 인공지능을 고위험으로 분류한다. 특히 이러한 인공지능은 생활영역에서 매일 활용하고 있다고 해도 과언이 아닐 정도로 활용도가 높고 위의 기본권 침해와 밀접한 관련이 있다. 다음으로 본 연구에서는 앞에서 언급한 것처럼 고위험 인공지능시스템이 다양한 영역에서 널리 활용되면서 기본권 침해를 야기하였거나 잠재적인 위험에 대하여 관련 헌법이론과 구체적인 사례를 살펴봄으로써 고위험 인공지능시스템의 기본권 침해 문제를 규명한다. 무엇보다도 고위험 인공지능시스템에 따른 기본권 침해를 방지하기 위해서는 인공지능 규제에 관한 규범적 노력이 필요하다. 고위험 인공지능에 관한 비교법적 경향을 살펴보면 UNESCO와 OECD는 인공지능의 신뢰성과 공정성 원칙을 구현하기 위한 윤리원칙을 마련하였으며, EU「인공지능법안」과 미국「알고리즘 책임법안」은 고위험 인공지능시스템의 영역을 구체적으로 정의하고, 인공지능 사업자 및 사용자 등에 대한 책무를 규정하였다. 또한, 영국「GDPR」은 인공지능의 프로파일링 등 개인정보 처리에 반대할 수 있는 권리 등을 통해 고위험 인공지능시스템의 기본권 침해 문제에 대응하고 있다. 이와 같은 외국의 법제는 인공지능법을 제정하는데 있어서 참고할 부분이 적지 않다. 끝으로 고위험 인공지능시스템의 기본권 침해를 방지하기 위해서는 인공지능의 투명성과 공정성이 구현될 수 있어야 한다. 이를 위해서는 데이터와 알고리즘이 부당한 차별과 편향을 내포하지 않도록 사업자의 감독의무가 필요하며, 고위험 인공지능시스템 이용자의 알 권리 보장을 위한 정보접근권과 인공지능의 판단이나 결정에 대한 거부권 등을 보장할 필요가 있다. 또한, 고위험 인공지능시스템에 대한 영향평가를 통하여 인권 및 기본권 침해에 대한 잠재적인 위험으로부터 보호하여야 하며, 인공지능 영향평가 방식에 있어서도 위험기반 접근 뿐만 아니라 인권 기반접근 등 다양한 평가방식을 모색할 필요가 있다.

more

초록 (요약문)

In the contemporary intelligent information society, high-risk artificial intelligence(AI) systems are widely utilized across both private and public domains. Specifically, AI technology is actively used in private sectors such as recruitment, credit evaluation, and news provision services. In the public sector, automated administrative measures utilizing AI are being introduced, and discussions about the deployment of AI systems to support judicial work are in progress. In particular, AI is being used to evaluate the recidivism risk of criminal defendants in Anglo-American countries. Despite the societal and economic advancements (e.g., the speed and efficiency of business processing) brought about by these high-risk AI systems, there are significant concerns as they cause various consitutional issues such as discrimination and bias. Above all, a constitutional explanation of the infringement of basic rights by high-risk AI systems is warranted. Especially, conflicts can arise between the right of users to demand explanations regarding related data and algorithm information in cases of infringement of basic rights by high-risk AI systems and the freedom of business operations of companies or users who hesitate to disclose specific information about the AI. However, users can demand the state's obligation to protect basic rights against unjust discrimination by high-risk AI systems, as there is no established law regulating the infringement of basic rights by AI users. Although AI-related bills are pending in the National Assembly, no existing law specifically regulates high-risk AI systems. For effectively regulating high-risk AI systems, which can lead to serious infringement of basic rights, it is essential to define what constitutes a high-risk area. This study first classifies AI that can infringe upon the rights of equality, right to know, and the right to trial as high-risk, based on a risk-based approach considering the riskiness of AI. Such AI corresponds to AI systems that are widely used to the extent that they are utilized daily in everyday life. Furthermore, this study investigates the infringement of basic rights by high-risk AI systems by examining constitutional theories and specific cases regarding potential threats or infringements on basic rights caused by the widespread use of high-risk AI systems in various fields. Above all, strict regulation of AI is needed to prevent the infringement of basic rights by high-risk AI systems. When examining comparative legal trends regarding high-risk AI, UNESCO and the OECD have established ethical principles to implement the principles of reliability and fairness of AI. The EU AI Act and the U.S. Algorithm Accountability Act define high-risk AI systems specifically and regulate duties of AI businesses and users. The UK GDPR regulates the right to object to profiling and other personal data processing by AI. These foreign legal systems provide invaluable references for AI legislation. Finally, transparency and fairness of AI must be implemented to prevent the infringement of basic rights by high-risk AI systems. It is necessary to set the duty of supervision by businesses or users to ensure that data and algorithms do not embody unjust discrimination and bias. There is a need to guarantee access to information for high-risk AI system users and the right to reject AI usage. The protection from potential risks of human rights and basic rights infringement through an impact assessment of high-risk AI systems is essential, and various evaluation methods, including a risk-based approach and a human rights-based approach, need to be explored in AI impact assessment.

more