들어가며: 왜 지금 AI 기본법인가?
2022년 11월 ChatGPT의 등장은 전 세계를 뒤흔들었습니다. 출시 2개월 만에 1억 명의 사용자를 확보하며 역사상 가장 빠르게 성장한 서비스가 되었고, 이후 GPT-4, Claude, Gemini 등 생성형 AI의 발전은 우리 일상을 근본적으로 바꾸고 있습니다.
이러한 배경 속에서, 2024년 12월 26일 국회 본회의에서 재석 264명 중 찬성 260명이라는 압도적인 지지로 「인공지능 발전과 신뢰 기반 조성 등에 관한 기본법」이 통과되었습니다(이하 AI기본법). 2026년 1월 22일부터 시행되는 이 법은 EU AI Act에 이어 전 세계에서 두 번째로 포괄적인 AI 규제 체계를 갖춘 법률입니다.
본 포스팅은 법률 조항을 순서대로 나열하는 대신, 독자 여러분이 가장 궁금해할 정보로 구성했습니다. 법률 원문 전체 내용은 국가법령정보센터에서 확인하실 수 있습니다.

혹시라도 내용 중 틀린 부분이 있다면 편하게 말씀 부탁드립니다. 전 AI 업계에 종사하는 사람이나, 배움이 아직 부족한 사람이고 특히 법률에 대해서는 더 부족합니다. 상세한 내용은 꼭 "인공지능 발전과 신뢰 기반 조성 등에 관한 기본법" 내용을 확인해보시기 바랍니다.
AI 기본법은 왜 만들어졌을까요?
[1]. 기술적 배경: AI, 어디까지 왔나
AI 기본법의 탄생 배경을 이해하려면, 먼저 AI 기술이 얼마나 급격하게 발전했는지 알아야 합니다.
수많은 기술 발전이 있었지만, 핵심만 추려보자면 다음과 같은 발전이 있었죠.
| 시점 | 기술 발전 | 사회적 영향 |
| 2016년 | 알파고 vs 이세돌 | AI가 인간 고유 영역이라 여겨진 바둑에서 승리, AI 대중화의 시작 |
| 2022년 11월 | ChatGPT 출시 | 2개월 만에 1억 사용자 확보, 생성형 AI 시대 개막 |
| 2023년 3월 | GPT-4 출시 | 멀티모달 AI 등장, 이미지 이해 및 복잡한 추론 가능 |
| 2024년 | AI 에이전트 등장 | 자율적 의사결정이 가능한 AI 시스템 상용화 |
| 2025년 | 한국 AI 기본법 제정 | 글로벌 2번째 포괄적 AI 법률 체계 구축 |
골드만삭스(2023)의 분석에 따르면, 생성형 AI는 향후 10년간 전 세계 약 3억 개의 일자리에 영향을 미치고, 글로벌 GDP를 약 7% 향상시킬 것으로 전망됩니다. AI는 더 이상 '미래 기술'이 아니라, 현재 우리 경제와 사회를 재편하고 있는 '현실'입니다.
[2]. 사회적 배경: 왜 규제가 필요해졌나
AI 기술의 발전은 많은 혜택을 가져왔지만, 동시에 심각한 사회적 문제도 야기했습니다.
2-1. 딥페이크 성범죄의 폭발적 증가
한국여성인권진흥원의 '2024 디지털 성범죄 피해자 지원 보고서'에 따르면, 딥페이크(합성·편집) 피해가 전년 대비 227.2% 급증 (423건 → 1,384건)하였으며, 피해자 연령은 10~20대가 92.6% 였습니다. 또한, 디지털 성범죄 피해자 총수는 사상 최초로 1만 명 돌파하며 AI에 대한 악용 사례가 늘어났죠.
2024년 교육부 집계에 따르면, 학교 딥페이크 성범죄 피해 신고 건수만 561건, 누적 피해자 948명에 달했습니다. AI 기술의 발전으로 누구나 쉽게 딥페이크를 만들 수 있게 되면서, 범죄의 문턱이 낮아진 것입니다.
2-2. AI의 편향성과 사회적 불안

AI 시스템이 채용, 대출 심사, 보험 심사 등에 활용되면서, 알고리즘의 편향성으로 인한 차별 문제가 대두되고 있습니다. 학습 데이터에 내재된 편견이 AI 시스템을 통해 재생산되고 증폭되는 현상이 전 세계적으로 보고되고 있습니다. 또한, 생성형 AI의 등장으로 사무직, 콘텐츠 제작, 고객 상담 등 다양한 분야에서 일자리 대체에 대한 우려가 커지고 있습니다. 특히 교육 수준과 경력이 높은 전문직도 AI의 영향을 받을 것이라는 전망이 나오면서, 사회 전반에 걸친 대응이 필요해졌습니다.
[3]. 글로벌 배경: 세계는 어떻게 대응하고 있나
AI 규제는 우리나라 뿐만 아니라, 전 세계적인 흐름입니다. 각국의 접근 방식을 비교해보겠습니다.
| 국가/지역 | 법률/정책 | 핵심 특징 | 제재 수준 |
| EU | AI Act (2024.8 발효) | 위험 기반 4단계 분류, 강력한 사전 규제 | 전 세계 매출의 최대 7% 또는 3,500만 유로 |
| 미국 | 행정명령 + 섹터별 규제 | 분야별 접근, 기존 규제기관 활용 | 분야별 상이 |
| 중국 | 생성형 AI 서비스 관리법 등 | 콘텐츠 통제 중심, 사전 허가제 | 서비스 중단, 벌금 |
| 한국 | AI 기본법 (2026.1.22 시행) | 진흥 중심 + 자율규제 | 최대 3,000만원 과태료 |
한국 AI 기본법의 가장 큰 특징은 '진흥 중심' 접근입니다. EU AI Act가 강력한 사전 규제를 통해 안전성을 확보하려는 반면, 한국은 산업 육성과 자율규제를 우선하면서 필요 최소한의 규제만 도입했습니다.
과태료 수준도 EU(매출 7%)에 비해 3,000만원으로 상대적으로 낮습니다.
누가 해당되나요?
[1]. "인공지능사업자"의 범위
이 법의 핵심 규제 대상은 "인공지능사업자"입니다. 법률 제2조 제7호에서 정의하는 인공지능사업자는 크게 두 가지로 나뉩니다.

| 유형 | 정의 (법률 원문) | 예시 |
| 인공지능개발사업자 | "인공지능을 개발하여 제공하는 자" | OpenAI, Anthropic, 네이버(하이퍼클로바X), 카카오, LG(엑사원) 등 AI 모델 개발사 |
| 인공지능이용사업자 | "개발사업자가 제공한 인공지능을 이용하여 인공지능제품 또는 인공지능서비스를 제공하는 자" | ChatGPT API를 활용한 챗봇 서비스, AI 기반 채용 플랫폼, AI 의료 진단 서비스 등 |
주의: ChatGPT API를 활용해 고객에게 서비스를 제공하는 스타트업도 "인공지능이용사업자"에 해당합니다. 단순히 AI를 '사용'하는 것이 아니라, AI를 활용한 '제품 또는 서비스를 제공'하면 이 법의 적용을 받습니다.
이 법은 모든 AI를 동일하게 규제하지 않습니다. AI 유형에 따라 의무 수준이 달라지므로, 먼저 여러분의 서비스가 어디에 해당하는지 확인해야 합니다.
1-1. 고영향 인공지능 (High-Impact AI)
법률 제2조 제4호에 따르면, "사람의 생명, 신체의 안전 및 기본권에 중대한 영향을 미치거나 위험을 초래할 우려가 있는 인공지능시스템"으로서 다음 11개 영역에서 활용되는 것을 말합니다.
| 번호 | 영역 | 구체적 내용 (법률 원문 기반) |
| 가 | 에너지 | 「에너지법」 제2조제1호의 에너지 공급 |
| 나 | 먹는물 | 「먹는물관리법」 제3조제1호의 먹는물 생산 공정 |
| 다 | 보건의료 | 「보건의료기본법」 제3조제1호의 보건의료 제공 및 이용체계 구축·운영 |
| 라 | 의료기기 | 「의료기기법」 제2조제1항의 의료기기 및 「디지털의료제품법」 제2조제2호의 디지털의료기기 개발·이용 |
| 마 | 원자력 | 「원자력시설 등의 방호 및 방사능 방재 대책법」에 따른 핵물질·원자력시설 안전 관리·운영 |
| 바 | 범죄수사 | 범죄 수사나 체포 업무를 위한 생체인식정보(얼굴·지문·홍채 등)의 분석·활용 |
| 사 | 채용·대출 | 채용, 대출 심사 등 개인의 권리·의무 관계에 중대한 영향을 미치는 판단 또는 평가 |
| 아 | 교통 | 「교통안전법」에 따른 교통수단, 교통시설, 교통체계의 주요한 작동 및 운영 |
| 자 | 공공서비스 | 공공서비스 제공에 필요한 자격 확인 및 결정 또는 비용징수 등 국민에게 영향을 미치는 국가기관등의 의사결정 |
| 차 | 교육평가 | 「교육기본법」 제9조제1항에 따른 유아교육·초등교육·중등교육에서의 학생 평가 |
| 카 | 기타 | 그 밖에 사람의 생명·신체의 안전 및 기본권 보호에 중대한 영향을 미치는 영역으로서 대통령령으로 정하는 영역 |
2-2. 생성형 인공지능 (Generative AI)
법률 제2조 제5호에 따르면, "입력한 데이터의 구조와 특성을 모방하여 글, 소리, 그림, 영상, 그 밖의 다양한 결과물을 생성하는 인공지능시스템"을 말합니다. ChatGPT, Claude, Gemini, Midjourney, DALL-E 등이 그 예시라고 볼 수 있겠습니다.
2-3. 대규모 연산 AI 시스템
법률 제32조에 따라, 학습에 사용된 누적 연산량이 일정 기준 이상인 AI 시스템은 별도의 안전성 확보 의무가 적용됩니다. 시행령 제정안(2025.11.12 입법예고)에서는 이 기준을 10의 26제곱 FLOPs(부동소수점 연산) 이상으로 정했습니다. 이는 미국 행정명령의 기준과 동일한 수준입니다.
간단하게 아래와 같은 질문에 따라 적용 대상을 점검해볼 수 있을 것 같습니다.
| 질문 | 예 | 아니오 |
| 1. AI를 개발하거나, AI를 활용한 제품/서비스를 제공하나요? | → 2번으로 | → 적용 대상 아님 |
| 2. 위 11개 영역에서 활용되는 AI인가요? | → 고영향 AI 가능성 | → 3번으로 |
| 3. 글, 소리, 이미지, 영상 등을 생성하는 AI인가요? | → 생성형 AI | → 4번으로 |
| 4. 학습 연산량이 10^26 FLOPs 이상인가요? | → 안전성 확보 의무 대상 | → 일반 AI |
그럼 무엇을 해야 하나요? 어떤 의무사항이 있을까요?
AI 기본법상 인공지능사업자의 의무는 AI 유형에 따라 다릅니다. 아래 표로 정리를 해볼 수 있을 것 같은데요.
| 의무 조항 | 일반 AI | 생성형 AI | 고영향 AI | 대규모 연산 AI |
| 투명성 확보 - 사전고지 (법 제31조①) | - | 필수 | 필수 | - |
| 투명성 확보 - 결과물 표시 (법 제31조②) | - | 필수 | - | - |
| 투명성 확보 - 딥페이크 고지 (법 제31조③) | - | 필수 | - | - |
| 안전성 확보 - 위험관리 (법 제32조) | - | - | - | 필수 |
| 고영향 AI 사업자 책무 (법 제34조) | - | - | 필수 | - |
| 영향평가 (법 제35조) | - | - | 권고 | - |
| 국내대리인 지정 (법 제36조) | 해외 사업자 중 기준 충족 시 필수 | |||

투명성 확보 의무 (법 제31조) - 생성형 AI·고영향 AI
이 의무는 가장 광범위하게 적용되는 의무인데요.
고영향 AI 또는 생성형 AI를 이용한 제품·서비스를 제공할 때, 이용자에게 사전에 AI 기반 운용 사실을 알려야 합니다.
시행령안(제22조)에 따른 고지 방법은
- 제품·서비스에 직접 기재
- 이용약관에 명시
- 이용자 화면에 표시
- 음성으로 안내
- 기타 동등한 수준의 방법
와 같으며, 결과물 표시의무에 따라 생성형 AI를 통해 생성된 결과물임을 이용자가 알 수 있도록 표시해야 합니다. 또한, 딥페이크 고지의무(제3항)에 따라 실제와 구분하기 어려운 가상의 음향, 이미지 또는 영상을 생성하는 경우, 이용자가 명확하게 인식할 수 있는 방식으로 고지하거나 표시해야 합니다.
또한, 안전성을 위해 학습 연산량 10^26 FLOPs 이상인 AI 시스템의 개발사업자는 다음을 이행해야 합니다.
- AI 수명주기 전반에 걸친 위험 식별·평가·완화
- 안전사고 모니터링 및 대응 위험관리체계 구축
- 이행 결과를 과기정통부 장관에게 제출
고영향 AI 사업자의 6가지 책무 (법 제34조)
고영향 AI를 이용한 제품·서비스를 제공하는 사업자는 다음 6가지 조치를 이행해야 합니다.
| 번호 | 조치 사항 | 구체적 내용 |
| 1 | 위험관리방안 마련 | 인공지능의 개발 및 활용에서 발생할 수 있는 위험 관리 방안 |
| 2 | 설명 방안 마련 | 영향받는 자에게 의미 있는 설명을 제공하기 위한 방안 |
| 3 | 이용자 보호 방안 | 이용자의 권익 침해 방지 및 이용자 불만 처리 방안 |
| 4 | 인간 관리·감독 | 인공지능의 관리·감독에 관한 사람의 개입 보장 방안 |
| 5 | 기록 작성·보관 | 이행 근거 문서 작성 및 5년간 보관 (시행령안) |
| 6 | 위원회 의결 조치 | 국가인공지능위원회에서 심의·의결한 사항 |
또한, 시행령안(제26조②)에 따르면 '위험관리방안의 주요 내용', 설명 방안의 주요 내용 (학습용 데이터 개요 포함), 이용자 보호 방안, 관리·감독 담당자의 성명 및 연락처를 홈페이지 등에 공개해야 합니다.
법을 지키지 않으면 어떻게 되나요?
법을 지키지 않을 시, 벌칙이 있습니다.
일단, 직무상 알게 된 비밀을 누설하거나 도용한 자는 3년 이하의 징역 또는 3천만원 이하의 벌금(법 제 42조)에 처합니다.
또한, 다음 사항을 위반 시 3천만원 이하의 과태료가 부과됩니다.

| 위반 사항 | 근거 조항 | 과태료 |
| 투명성 확보를 위한 사전고지 미이행 | 제31조 제1항 | 3천만원 이하 |
| 국내대리인 미지정 | 제36조 제1항 | 3천만원 이하 |
| 시정명령 불이행 | 제40조 제3항 | 3천만원 이하 |
정부는 법 시행 초기 기업들의 혼란을 최소화하기 위해 1년 이상의 계도 기간을 운영할 계획입니다. 이 기간 동안에는 과태료를 부과하지 않고 시정 지침만 제공합니다.
법적으로는 2026년 1월 22일부터 의무가 발생하지만, 실제 과태료 부과는 빨라도 2027년 이후가 될 가능성이 높습니다. 하지만 이 기간을 '준비 기간'으로 활용해야지, '유예 기간'으로 오해해서는 안 됩니다.
| 구분 | 한국 AI 기본법 | EU AI Act |
| 최대 과태료/과징금 | 3천만원 (약 2만 유로) | 3,500만 유로 또는 전 세계 매출의 7% |
| 계도 기간 | 1년 이상 (예정) | 단계적 시행 (고위험 AI 2027년 12월) |
| 접근 방식 | 진흥 중심, 자율규제 | 규제 중심, 사전 적합성 평가 |
한국의 제재 수준은 EU에 비해 상당히 낮습니다. 이는 산업 육성을 우선하는 '진흥 중심' 접근의 결과입니다.
이는 '규제가 약하다'가 아니라 '자율적 준수를 기대한다'는 의미로 해석해야 하지 않을까 싶습니다.
분야별 영향과 대응 전략
[1]. 금융, 인사 분야 (채용·대출·보험), 채용
AI 기반 신용평가, 대출 심사, 보험 심사, 채용 시스템은 고영향 AI에 해당할 가능성이 높습니다. AI 기반 의사결정의 투명성 확보를 확인해야 할 것이고 영향받는 자(대출 신청자, 구직자 등)에게 의미 있는 설명 제공 방안을 마련해야 할 것입니다. 또한, 알고리즘 편향성 검토 및 완화 조치와 관리·감독 체계 구축을 해야할 것입니다.
[2]. 의료 분야
AI 의료기기, 디지털 치료제, AI 진단 시스템은 고영향 AI가 될 수 있습니다. 다만, 「디지털의료제품법」 요구사항을 충족하면 AI 기본법상 의무를 이행한 것으로 간주됩니다(시행령안 제26조⑤). 기존 디지털의료제품법 컴플라이언스 체계 점검을 해야하고 AI 영향평가를 자발적 실시를 하는 것도 방법이 될 수 있습니다.
[3]. 모빌리티 분야 (자율주행)
자율주행 AI 시스템은 교통안전과 직결되어 고영향 AI에 해당될 수 있습니다. 위험관리방안 수립 및 문서화에 대한 대응이 필요할 수 있으며, 사고 발생 시 책임 소재를 명확하 해야할 것 같네요. 또한, 해외 기업(테슬라, 웨이모 등) 국내 대리인 지정 검토가 필요할 것입니다.
[4]. 콘텐츠·마케팅 분야
생성형 AI를 활용한 콘텐츠 제작, AI 광고 카피 생성 등은 생성형 AI에 해당합니다. 이에 AI 생성 콘텐치임을 표시하는 방안 마련이 필요하고, 딥페이크 수준의 결과물 생성 시 명확한 고지가 필요합니다. 무엇보다 저작권 이슈를 사전에 검토해야하죠.
[5]. 교육 분야
교육 분야에도 영향이 있을 것입니다. 평가 기준의 투명성 화보나, 학생 및 학부모에게 의미있는 설명을 제공해야 할 것이고, AI 평가 결과에 대한 사람의 검토 체계를 갖추어야 할 것입니다.
자주 질문할 것 같은, 궁금한 것! FAQ
Q1. ChatGPT API를 사용해서 챗봇을 만들어 고객에게 제공하는데, 우리도 "인공지능사업자"인가요?
A. 네, "인공지능이용사업자"에 해당합니다. ChatGPT API를 활용해 인공지능서비스를 제공하므로, 법률의 적용을 받습니다. 생성형 AI를 활용하므로 투명성 확보 의무(사전고지, 결과물 표시)가 적용됩니다.
Q2. 우리 서비스가 "고영향 AI"인지 확실하지 않은데 어떻게 하나요?
A. 과기정통부 장관에게 확인을 요청할 수 있습니다(법 제33조). 기본 30일 내에 결과를 통보받으며, 필요 시 30일 연장될 수 있습니다. 불확실한 상태로 두지 말고, 공식 확인을 받는 것이 리스크 관리에 유리합니다.
Q3. 해외 기업인데 한국에서 서비스하고 있습니다. 국내대리인을 꼭 지정해야 하나요?
A. 직전 3개월간 국내 일평균 이용자 100만 명 이상이거나, 전년도 국내 매출이 기준 이상이면 국내대리인을 지정해야 합니다. 미지정 시 3천만원 이하의 과태료가 부과됩니다.
Q4. 생성형 AI 결과물에 어떻게 표시해야 하나요?
A. 구체적인 표시 방법은 시행령과 가이드라인에서 정해질 예정입니다. 현재 시행령안에 따르면, 이용자의 연령이나 신체적 조건 등을 고려하여 명확하게 인식할 수 있는 방법으로 표시해야 합니다. 워터마크, 라벨 표시, 메타데이터 삽입 등 다양한 방법이 활용될 수 있습니다.
Q5. 계도 기간 동안은 아무것도 안 해도 되나요?
A. 아닙니다. 법적 의무는 2026년 1월 22일부터 발생합니다. 계도 기간은 과태료 부과를 유예하는 것이지, 의무를 면제하는 것이 아닙니다. 이 기간을 적극적인 준비 기간으로 활용해야 합니다.
마무리
AI 기본법은 단순한 규제가 아닙니다. 이 법은 AI 시대를 맞아 '신뢰'라는 새로운 경쟁력을 정의하고 있습니다. 안전성을 늘리는 것이죠.
딥페이크 범죄, 알고리즘 편향, AI 오류로 인한 피해 이런 문제들이 계속된다면, AI 기술 자체에 대한 사회적 불신이 커질 수밖에 없습니다. 결국 AI 산업 전체의 성장이 저해될 것입니다. AI 기본법은 이러한 문제를 예방하고, AI에 대한 사회적 신뢰를 구축하기 위한 최소한의 기준을 제시합니다.
이 기준을 준수하는 것은 '규제 대응'이 아니라, '지속 가능한 AI 비즈니스'를 위한 투자입니다.
"AI를 잘 활용하는 사람이 그렇지 못한 사람의 일자리를 대체할 것"이라는 말이 있습니다. 마찬가지로, 신뢰받는 AI 기업이 그렇지 못한 기업의 시장을 대체할 것입니다. AI 기본법은 그 신뢰의 기준을 제시하고 있습니다.
물론, 이 법규가 올바른 지, 잘 이행되는 지는 지켜봐야 할 것 같습니다.
저는 법 전문가도 아니고 그냥 AI업에서 종사하는 사람이기에 그냥 한 사람의 개인적인 생각임을 말씀드립니다!
혹시라도 위 내용 중 틀린 부분이 있다면 편하게 말씀 부탁드립니다.
참고자료
- 「인공지능 발전과 신뢰 기반 조성 등에 관한 기본법」 (법률 제20676호, 2025.1.21 제정)
- AI 기본법 시행령 제정안 입법예고 (2025.11.12, 과학기술정보통신부)
- 2024 디지털 성범죄 피해자 지원 보고서 (한국여성인권진흥원, 2025.4)
- EU Artificial Intelligence Act (Regulation (EU) 2024/1689)
- Goldman Sachs - The Potentially Large Effects of AI on Economic Growth (2023)
- ITIF - 통합적 접근의 명암: 한국 AI 기본법의 전략·진흥·규제 구조와 규제 리스크 (2025.9)
'인공지능(AI) > AI 일반' 카테고리의 다른 글
| 소버린(Sovereign) AI란? - AI 주도 강국으로 가기 위한 발걸음 (4) | 2025.06.23 |
|---|