AI 규제만으로는 부족하다 — OpenAI의 '지능 시대 산업정책' 제안

깊이 읽기

AI 정책 이야기를 하면 보통 규제부터 떠올리게 된다. 어떤 모델을 막을지, 어떤 회사를 감시할지, 어디까지 공개를 허용할지 같은 질문들이다. 그런데 OpenAI가 이번에 던진 질문은 조금 다르다. AI가 사회 전체의 생산 방식을 바꿔버릴 때, 그 과실과 충격을 누가 어떻게 나눌 것인가다.

문제는 속도다. 이 문서가 보는 AI의 변화는 추상적 미래가 아니다. 이미 분 단위 작업이 시간 단위 작업으로 넘어왔고, 다음은 월 단위 프로젝트다. 규제 몇 조항을 덧대는 방식만으로는 버티기 어렵다는 말이 여기서 나온다.


한줄 요약

OpenAI는 초지능 전환을 기술 경쟁의 다음 라운드가 아니라 사회 계약의 재설계 문제로 본다. 핵심은 세 가지다. 번영을 넓게 나누고, 위험을 줄이고, 접근과 주도권을 민주화하는 것이다.


문서 개요

이 문서는 완성된 정책 패키지가 아니다. 오히려 초안에 가깝다. OpenAI는 이를 토론을 시작하기 위한 사람 중심의 산업정책 아이디어 묶음으로 제시한다. 구성도 단순하다.

  1. 열린 경제 만들기 — AI의 생산성 이익이 소수 기업에만 쌓이지 않도록 하는 장치들
  2. 회복력 있는 사회 만들기 — 사이버·바이오 위험, 정렬 문제, 민주적 통제 약화를 막는 장치들

이 문서의 핵심은 단순하다. AI 전환의 수익과 위험을 시장에만 맡기지 말자는 것이다.

이 framing이 흥미로운 이유는, AI를 더 이상 소프트웨어 산업 내부의 문제가 아니라 노동·세금·복지·전력망·행정·국제협력이 한꺼번에 얽힌 문제로 보기 때문이다.


1. 왜 지금 '산업정책'인가

OpenAI는 과거 산업혁명과 지금의 AI 전환을 겹쳐 본다. 전기와 내연기관, 대량생산이 경제 구조를 바꿨을 때도 시장만으로는 충분하지 않았다. 노동 보호, 안전 기준, 사회보장, 교육 확대 같은 장치가 뒤늦게 따라붙으면서 겨우 균형을 맞췄다.

이번에는 시간이 더 짧다. 기술은 먼저 달리고, 제도는 뒤에서 헐떡인다. 데이터센터는 지역 전력 가격에 영향을 줄 수 있고, 고성능 모델은 노동시장과 안보를 동시에 흔들 수 있다. 그래서 이 문서는 '규제할 것인가 말 것인가'보다 한 단계 앞서서, 어떤 경제 질서를 만들 것인가를 묻는다.

여기서 OpenAI가 세운 원칙은 세 가지다.

  • 번영의 광범위한 공유: 생산성 이익이 생활수준 개선으로 이어져야 한다.
  • 위험의 실질적 완화: 경제 충격, 사이버·바이오 오남용, 통제 상실 가능성에 대비해야 한다.
  • 접근과 주도권의 민주화: 가장 강한 모델은 일부 통제가 필요할 수 있어도, 유용한 AI에 대한 접근 자체는 넓어져야 한다.

이 세 문장은 사실상 이 문서 전체의 축이다. 뒤에 나오는 세부 정책은 전부 이 축 위에 매달려 있다.


2. 열린 경제를 만들기 위한 제안

이 문서의 첫 번째 절반은 경제 이야기다. 그런데 흔한 성장론은 아니다. 생산성을 올리자는 말보다, 생산성 상승이 누구의 삶을 어떻게 바꿀지에 더 집착한다.

1) 노동자에게 발언권을 주자

첫 제안은 의외로 고전적이다. AI 도입 과정에 노동자의 목소리를 넣자는 것이다. 이유는 분명하다. 실제 업무가 어디서 막히는지, 어떤 자동화가 위험을 줄이고 어떤 자동화가 노동 강도를 밀어 올리는지는 현장 사람이 가장 잘 안다.

이 문서가 좋은 AI 도입의 기준으로 보는 것은 단순한 인건비 절감이 아니다. 위험하고 반복적이며 기진맥진하게 만드는 일을 줄여서, 사람이 더 가치 높은 업무에 집중하게 만드는 방향이다. 반대로 일정 통제 강화, 자율성 축소, 불공정한 배치와 보상으로 이어지는 사용은 한계를 분명히 두어야 할 해로운 활용으로 본다.

2) AI를 창업 인프라로 보자

두 번째는 도메인 전문가의 창업 문턱을 낮추는 AI다. 회계, 마케팅, 조달 같은 백오피스 업무를 AI가 대신 떠안으면, 원래 회사를 차릴 엄두를 못 냈던 사람도 움직일 수 있다. 문서는 여기에 소액 보조금, 매출 연동 금융, 계약서 템플릿, 공유 운영 인프라를 묶은 일종의 "스타트업 인 어 박스"를 붙여 보자고 제안한다.

이건 AI를 대기업의 규모의 경제가 아니라 개인의 규모의 경제로 바꾸려는 발상에 가깝다.

3) 'AI 접근권'을 기본 인프라처럼 다루자

문서에서 가장 눈에 띄는 표현 가운데 하나가 Right to AI다. 전기나 인터넷처럼, 현대 경제에 참여하려면 기초적인 AI 접근이 사실상 필수가 되고 있다는 인식이다. 그래서 저렴하거나 무료인 접점을 늘리고, 교육·연결성·기기·훈련까지 함께 보강해야 한다고 말한다.

중요한 대목은 대상이다. 여기서 강조되는 사용자는 대기업만이 아니다. 노동자, 소상공인, 학교, 도서관, 소외 지역 공동체가 빠지지 않는다. AI 격차를 그냥 두면, 디지털 격차가 그랬던 것처럼 생산성 격차도 그대로 굳어질 수 있다는 우려가 깔려 있다.

4) 세금과 자산 구조를 같이 바꾸자

문제는 수익의 흐름이다. AI가 커질수록 노동소득보다 기업이익과 자본이득 쪽으로 돈이 몰릴 가능성이 높다. 그런데 기존 복지국가는 임금과 급여세에 많이 기대고 있다. 생산성은 오르는데 사회보장 재원은 오히려 흔들리는 역설이 생길 수 있다.

그래서 문서는 몇 가지를 한꺼번에 꺼낸다.

  • 자본이득과 법인 과세 비중 확대
  • 자동화된 노동에 대한 새로운 과세 방식 검토
  • 기업이 사람을 유지·재훈련·투자하도록 유도하는 임금 연동 인센티브
  • AI 성장의 과실을 시민에게 직접 연결하는 공공부 펀드

특히 Public Wealth Fund 제안은 인상적이다. 금융시장에 깊이 들어와 있지 않은 시민도 AI 성장의 수익 일부를 직접 나눠 가질 수 있도록, 장기 분산 자산에 투자하는 공적 기금을 만들자는 구상이다. 쉽게 말하면, AI 시대의 배당금을 소수 주주만이 아니라 시민 전체와 연결해보자는 이야기다.

5) 전력망과 근로시간까지 함께 바꾸자

AI는 모델만으로 돌아가지 않는다. 전력망이 받쳐줘야 한다. 그래서 이 문서는 데이터센터와 에너지 인프라를 떼어 보지 않는다. 누가 전력망 확장 비용을 내는지, 지역사회가 어떤 혜택을 받는지, 가정용 전기요금이 왜곡되지 않는지를 함께 묻는다.

또 하나 흥미로운 제안은 효율 배당이다. AI 덕분에 루틴 업무가 줄고 운영비가 내려가면, 그 이익을 기업 마진으로만 남기지 말고 퇴직연금 매칭 확대, 의료비 부담 경감, 돌봄 지원 같은 형태로 돌리자는 것이다. 더 나아가 문서는 주 32시간·주 4일제 시범 운영까지 언급한다. 생산성 향상이 진짜라면, 남는 시간을 결국 누가 가져가느냐는 질문을 피하지 않겠다는 뜻이다.

6) 안전망과 '사람 중심 일자리'에 다시 투자하자

문서는 실업보험, SNAP, 사회보장, Medicaid, Medicare 같은 기존 안전망이 빨리, 넓게, 끊김 없이 작동해야 한다고 본다. 그리고 AI가 노동시장에 주는 충격을 실시간으로 계측해, 일정 기준을 넘으면 현금 지원, 임금보험, 훈련 바우처 같은 추가 지원이 자동으로 켜지는 구조를 상상한다.

한편, 돌봄과 교육, 보건, 지역사회 서비스 같은 분야는 AI가 행정 부담을 덜어줄 수는 있어도 사람의 접촉 자체를 대체하기 어렵다. 그래서 이 문서는 이런 영역을 단순한 복지 비용이 아니라 새로운 인간 중심 일자리의 흡수지로 본다. 같은 맥락에서 AI가 만든 가설을 실제로 검증할 수 있는 분산형 과학 실험 인프라도 강조한다. 모델이 답을 내도, 실험실과 병원과 지역 연구 거점이 움직이지 않으면 현실의 성과로 바뀌지 않기 때문이다.


3. 회복력 있는 사회를 만들기 위한 제안

문서의 후반부는 안전 이야기다. 하지만 여기서도 핵심은 공포가 아니다. 강한 모델이 사회에 널리 배치된 뒤에도 작동하는 안전 체계를 어떻게 만들 것인가가 중심이다.

1) 배포 이전보다, 배포 이후가 더 중요해진다

OpenAI는 그동안 업스트림 안전조치—평가, 레드팀, 사용정책, 테스트—가 중요했다고 인정한다. 다만 앞으로는 그것만으로 부족하다고 본다. 모델이 실제 조직과 행정, 시장에 들어간 뒤에는 실시간 모니터링, 감사, 사고 대응, 책임 배분이 더 중요해진다.

비유가 적절하다. 전기가 퍼질 때는 안전기준이 필요했고, 자동차가 늘 때는 교통규칙과 안전장치가 따라붙었다. AI도 마찬가지다. 다만 이번에는 사후 제도를 만들 시간적 여유가 거의 없다.

2) 사이버·바이오 위험에 맞서는 '안전 시스템 산업'을 키우자

문서는 단순한 금지보다 방어 능력 자체를 산업으로 키우는 방향을 택한다. 위협 모델링, 레드팀, 위험 탐지, 대응 체계를 AI로 더 강화하고, 조달·보험·표준·선구매 약정을 통해 이런 안전 역량에 지속적인 수요를 만들자는 것이다.

이 발상은 흥미롭다. 안전을 혁신의 브레이크가 아니라, 혁신이 만들어내는 또 하나의 출력물로 보려 한다.

3) 신뢰 스택과 감사 체계를 만들자

이 문서가 제안하는 AI trust stack은 아주 단순한 질문에서 출발한다. 앞으로 생성된 콘텐츠, 자동화된 지시, 에이전트의 행동을 보고 사람은 무엇을 믿을 수 있을까?

그래서 필요한 것이 provenance, verification, privacy-preserving logging 같은 장치다1. 누가 어떤 시스템으로 무엇을 했는지 확인은 가능해야 한다. 동시에 모든 것을 감시국가처럼 기록해서도 안 된다. 문서는 이 둘을 동시에 만족시키는 프라이버시 보존형 로그와 감사 체계를 상상한다.

감사 제안도 구체적이다. CAISI2 같은 기관이 프런티어 모델 위험 평가 기준을 만들고, 이를 수행할 경쟁적 감사 시장을 키우자는 구상이다. 더 나아가 정말 위험한 소수의 고성능 모델—특히 CBRN3이나 사이버 위험을 크게 키울 수 있는 모델—에 대해서만 사전·사후 감사와 더 강한 통제를 적용하자고 제안한다. 모든 모델을 한 줄로 세워 같은 규제를 걸기보다, 가장 위험한 층에만 규제를 두껍게 바르겠다는 방식이다.

4) 정부와 기업에도 가드레일이 필요하다

문서는 기업 지배구조도 건드린다. 프런티어 AI 기업은 공익 책임을 의사결정 구조 안에 심어야 하고, 내부자나 특정 세력이 모델 가중치와 훈련 인프라를 통해 권력을 집중시키지 못하게 해야 한다는 주장이다.

정부에 대해서도 예외를 주지 않는다. 정부가 AI를 어디까지 쓸 수 있고, 어디서는 쓰면 안 되는지를 높은 신뢰성 기준 아래 법과 기술로 함께 정해야 한다고 본다. 동시에 정부가 AI를 쓰면 남는 디지털 흔적을 활용해, 감찰기관·의회·법원이 더 촘촘한 감사를 할 수도 있다고 본다. 미국의 FOIA4 같은 정보공개 체계도 AI 시대에 맞게 손보자는 제안이 여기 이어진다.

5) 정렬을 엔지니어만의 문제로 두지 말자

후반부에서 가장 중요한 부분은 어쩌면 이것이다. 문서는 정렬(alignment)을 엔지니어와 경영진만의 비공개 결정으로 남겨두지 말자고 말한다. 모델이 어떤 가치에 따라 행동해야 하는지, 어떤 실패를 허용할 수 없는지, 성능을 어떻게 평가하는지에 대해 대표성 있는 공공 입력이 들어와야 한다는 것이다.

여기에 사고 보고 체계도 붙는다. 실제 사고뿐 아니라 근접사고(near miss), 즉 큰 피해로 이어지지는 않았지만 위험 신호를 보인 사례도 공공기관과 공유해 생태계 전체가 배울 수 있도록 하자는 제안이다.

마지막으로 국제협력이다. 문서는 국가별 평가 기관을 기반으로 정보를 교환하고 공동 평가를 수행하는 글로벌 AI 연구소 네트워크를 상상한다. 이건 AI를 핵무기처럼 다루자는 뜻이라기보다, 최소한 사고와 위험 정보를 비밀과 경쟁 논리 때문에 완전히 가둬두지는 말자는 방향에 가깝다.


이 문서가 특히 흥미로운 이유

이 문서는 AI 안전 문서이기도 하고, 경제 문서이기도 하다. 그런데 둘을 따로 놓지 않는다. 보통 AI 담론은 둘 중 하나로 흐른다. "더 혁신하자" 아니면 "더 규제하자"다. 이 문서는 그 둘 사이에 다른 축을 하나 세운다. 어떤 제도 위에서 혁신을 굴릴 것인가다.

특히 인상적인 대목은 세 가지다.

첫째, 노동과 복지국가를 정면으로 다룬다. 생산성 수치보다 생활수준, 세입 구조, 안전망 작동 방식으로 시야를 넓힌다.

둘째, 접근 확대와 고위험 모델 통제를 동시에 말한다. 모두에게 유용한 AI를 넓히되, 정말 위험한 소수 모델에는 더 강한 통제를 적용하자는 구분법이다. 전면 개방과 전면 봉쇄 사이의 회색지대를 정책 대상으로 올려놓는다.

셋째, 인프라를 소프트웨어 바깥으로 끌어낸다. 전력망, 지역사회 부담, 과학 실험 설비, 감사 시장까지 함께 본다. AI를 클라우드 안의 기능이 아니라 현실 세계의 산업 시스템으로 보는 시선이다.

물론 이 문서에는 빈칸도 많다. 공공부 펀드를 어떻게 설계할지, 자동화 과세를 어떻게 정의할지, 국제 정보공유가 실제 경쟁법과 안보 문제를 어떻게 넘을지는 아직 열려 있다. 문서 스스로도 이걸 인정한다. 완성본이 아니라 토론의 출발점이라고 여러 번 강조하는 이유다.


마무리

좋은 정책 문서는 정답을 주기보다 질문의 수준을 끌어올린다. 이 문서가 던지는 질문도 그렇다. AI가 더 똑똑해질수록, 그 수익은 누구에게 쌓이고 위험은 누가 떠안을 것인가. 그리고 그 사이에서 국가는 무엇을 해야 하며, 기업은 어디까지 책임져야 하는가.

OpenAI의 답은 아직 초안이다. 하지만 방향은 분명하다. AI를 더 잘 만드는 일만으로는 충분하지 않다. 그 AI가 굴러갈 경제와 제도를 같이 설계해야 한다.

이 문서의 진짜 메시지는 바로 거기에 있다. 사람을 보호하는 규제 몇 줄이 아니라, 사람을 중심에 두는 산업정책 전체가 필요하다는 것.

Footnotes

  1. provenance, verification, privacy-preserving logging — 생성물의 출처 확인, 행동 검증, 사생활을 과도하게 침해하지 않는 기록 체계를 묶어 부르는 표현이다.

  2. Center for AI Standards and Innovation — 프런티어 AI 평가와 표준 역량을 담당하는 기관 구상이다.

  3. Chemical, Biological, Radiological, Nuclear — 화학·생물·방사능·핵 관련 고위험 영역을 뜻한다.

  4. Freedom of Information Act — 미국 정보공개법. 시민이 정부 기록과 의사결정 과정을 들여다볼 수 있게 하는 장치다.

복사됨

관련 글

댓글 영역을 불러오는 중입니다.