인공지능기본법 시행령 입법예고 종료: AI 사업자가 체크해야 할 핵심 실무 포인트
인공지능(AI) 산업의 제도적 기준이 될 「인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(이하 '인공지능기본법')」 시행령 제정안의 입법예고가 2025년 12월 22일 종료되었습니다.
정부는 2026년 1월 22일 법 시행을 앞두고 제도적 기틀을 사실상 마무리했습니다. 이번 시행령은 서비스의 기획 및 설계 단계부터 반영되어야 할 필수 규격에 가깝습니다. 국내외 AI 사업자가 리스크 관리를 위해 반드시 확인해야 할 주요 내용을 정리해 드립니다.
1. 생성형 AI 표시 의무의 구체화 및 UX 반영
인공지능기본법 제31조에 따른 투명성 확보 의무가 시행령을 통해 더욱 정교해졌습니다.
-
표시 방식의 선택: 사업자는 AI 생성물에 대해 '사람 인식 방식'과 '기계 판독 방식(C2PA, 메타데이터 등)' 중 하나를 선택하여 표시해야 합니다.
-
안내 의무 강화: 기계 판독 방식을 채택하더라도 이용자에게 최소 1회 이상 안내 문구나 음성 등으로 해당 사실을 고지해야 합니다.
-
중복 규제 완화: 딥페이크 등 타 법령에 따라 이미 표시를 마친 경우 중복 의무가 면제됩니다.
-
실무적 시사점: 이는 단순 고지가 아닌 UX/UI 설계와 직결됩니다. 출시 후 수정을 방지하기 위해 설계 단계에서의 법률 검토가 선행되어야 합니다.
2. '고영향 AI' 확인 제도와 출시 리스크 관리
생명, 신체 안전, 기본권에 중대한 영향을 미칠 우려가 있는 영역(의료, 교통, 채용, 금융 등)은 '고영향 AI'로 분류됩니다.
-
사전 확인 제도: 사업자는 자사 서비스의 고영향 AI 해당 여부를 과기정통부에 신청할 수 있으며, 정부는 최대 60일(30일 + 연장 30일) 이내에 회신해야 합니다.
-
리스크 요인: 정부의 회신 기간이 서비스 출시 일정에 변수가 될 수 있습니다. 사후적으로 고영향 AI 판정을 받을 경우 시스템 아키텍처 전체를 수정해야 하는 막대한 리스크가 발생하므로 사전 진단이 필수적입니다.
3. 개인정보 보호법과의 연계 및 차별점
이번 시행령은 기존 법령과의 중복 규제 문제를 해결하려는 노력을 담고 있습니다.
-
이행 간주 규정: 개인정보 보호법상 의무를 성실히 이행한 경우, 개인정보 처리 범위 내에서는 AI기본법상 안전성 확보 의무를 이행한 것으로 간주합니다.
-
유의사항: 다만 이는 '개인정보' 영역에 국한됩니다. AI 알고리즘의 투명성, 결과물에 대한 설명 책임 등 비(非)개인정보 영역의 의무는 AI기본법에 근거하여 별도로 대응해야 합니다.
4. 사후 관리 책임: 5년 문서 보관 및 국내대리인
규제 준수 여부를 증빙하기 위한 사후 관리 책임이 명문화되었습니다.
-
문서 보관 의무: 위험관리 방안, 설명 방안, 이용자 보호 방안 등을 담은 문서를 5년간 보관해야 합니다. 향후 분쟁이나 조사 시 핵심 소명 자료가 됩니다.
-
국내대리인 지정: 해외 사업자의 국내대리인 지정 의무가 구체화되었습니다. 글로벌 빅테크의 API를 활용하는 국내 기업들도 공급망 차원에서의 컴플라이언스 체크가 필요합니다.
5. 대규모 AI 모델(High-Compute AI) 안전성 의무
학습 누적 연산량이 10²⁶ FLOPs 이상인 대규모 AI 모델 개발사에게는 위험 식별 및 관리 체계 구축 의무가 부과됩니다. 초거대 모델 기반 서비스를 제공하는 사업자 역시 책임 범위와 위험 분담 구조에 대한 법률적 검토가 요구됩니다.
결론: 1년의 계도기간, 그러나 준비는 지금부터
정부는 법 시행 이후 약 1년의 계도기간을 부여할 예정입니다. 하지만 AI 산업의 특성상 사후 대응은 기술적·경제적으로 막대한 비용을 수반합니다. 이제 기업들은 기술 개발을 넘어 '컴플라이언스 설계'를 서비스의 핵심 요소로 삼아야 합니다.
디센트 법률사무소는 AI 산업의 규제 환경 변화에 대응하여 기업별 맞춤형 법률 자문 및 솔루션을 제공하고 있습니다. 귀사의 서비스가 법적 기준에 부합하는지 전문 변호사의 진단이 필요하시다면 언제든 문의해 주시기 바랍니다.