
기업 독과점·경제 불평등·기술 과두정치·권위주의를 저지하고 경제적·정치적으로 더 나은 미래를 그리고자 한다면 빅테크가 설파하는 AI(인공지능)의 복음에 대항하라. 쉬운 일은 아니지만 대안은 분명히 있으며, 무엇보다 이것은 해볼 만한 싸움이다.
미국 비영리 연구소 AI Now Institute(에이아이 나우 인스티튜트)의 2025년 현황 보고서 “인공권력”(Artificial Power: 2025 Landscape Report)[1]은 AI 산업이 반짝이는 기술 상품을 앞세워 사회 구조 전반을 소수에 유리하게끔 재편하는 현실에 대한 분석과, 그 추세에 맞서기 위한 실천적 지침을 제시한다. 제목 “인공권력”은 빅테크가 (마케팅 용어이자 자동화 기술로서) “인공지능”을 성공리에 도입하여 자신들의 권력을 공고히 하고 있는 현실을 가리키는 동시에, 그 권력이 사실 불안정하며 쉽게 무너질 수 있는 상태임을 지적한다.
AI의 본질적 작용은 빅테크에 경제·사회·정치 권력을 집중시키는 것이다. AI는 흔히 사회를 전방위적으로 재편하는 혁신적 기술로 묘사되지만, 실상 그 작용은 친숙하다 못해 고리타분하다. 사회 각 분야로부터 전문성과 가치를 추출하여 만든 ‘솔루션’을 도입하고, 그 결과로 기술을 도입하는 소수는 더 많은 권력을 획득하는 반면 기술에 영향 받는 대다수의 삶의 질은 저하된다. 사회가 왜 이런 밑지는 장사를 해야 한단 말인가?

1장 “AI의 거짓 우상들”은 AI 산업의 지배적 위치와 현재 AI 발전 방향이 마치 불가피한 것처럼 인식하게 만드는 주요 전제, 서사를 유형화한다.
AGI(인공일반지능)의 신화. AI 기업들은 인간 지능과 동등하거나 그 이상의 성능을 가진 AGI 달성이 임박했다고 즐겨 주장한다. 추상적이면서 절대적인 지향점인 AGI는 모든 비판을 잠재우는 만능 열쇠다. AGI는 너무나 큰 효용(예: 기후위기 해결)을 가져올 것이기 때문에 그것을 달성하기 위한 어떤 비용(예: 데이터센터 구축의 환경 영향, 정책적 기회비용 등)도 합리화할 수 있다고 이야기된다. 하지만 이를 뒷받침하는 학술적 근거는 없다시피 하며 AGI라는 개념 정의 자체도 모호하다.
실패할 수 없을 때까지 인프라와 자본 투입하기. 현재의 AI 시장에 막대한 투자를 한 빅테크 기업은 AI로부터 수익을 얻어내야만 하는 입장이나, 수익 실현은 요원하다. 특히 이들은 여러 AI 구현 방식 중에서도 가장 자본과 자원을 많이 요구하는, 규모 중심 접근(더 많은 데이터를 투입해서 더 많이 연산하면 성능이 향상된다)에 크게 베팅했다. 사실 ‘규모’에 올인하는 방식 외에도 다양한 AI 기술의 경로가 존재하며, 규모를 키워서 얻는 ‘성능’이 ‘사회적 효용’으로 직결되지도 않는다. 하지만 빅테크는 대안적 경로를 탐색하기보다 현재 패러다임에서 우위를 지키기 위해 인프라를 확장하는 한편 위험을 사회로 분산하고자 정부 지원, 규제 철폐, 세제 혜택 등을 로비하고 있다.
AI 군비경쟁과 산업-안보의 결합. 미중 AI 군비경쟁이라는 기치 아래 경제와 안보 목표가 결합하는 경향은 미국 AI 기업에게 핵심 자산이 된다. 업계의 이익과 국익을 동일시하는 안보 구도에서 업계에 책임을 부여하는 규제(데이터 보호, 반독점 등)는 ‘국익에 반하는’ 것이 된다. 한편 미국 외 국가(예: 한국)도 자체적 기술 안보를 추구하는 과정에서 엔비디아 등 빅테크 기업을 위한 ‘소버린 AI’ 시장이 된다.
규제는 혁신의 걸림돌일 뿐이라는 프레임. 안정적 규제 환경은 AI 기술을 둘러싼 역동성과 복잡성을 통제하여 시장의 공정성과 경쟁력에 일조하지만, 지배적 탈규제 담론은 이처럼 규제가 혁신에 기여하기도 한다는 점을 무시한다. 빅테크와 미국 정부는 AI 규제를 혁신의 걸림돌, 과잉 관료주의 정도로 프레이밍하는 여론전에서 적극 협력해 왔고, 전통적으로 규제가 강한 것으로 알려진 EU의 정책 역시 탈규제 압력을 받고 있다.
2장 “앞면이면 내가 이기고 뒷면이면 네가 지는 거야”는 빅테크 기업이 권력 획책 과정에서 위험 부담을 지지 않게끔 짜여진 AI 산업의 불합리한 구조를 지적한다. 수요가 입증되지 않은 기술에 막대한 돈을 투자하고 자사 인원 감축도 서슴지 않는 AI 기업의 행태는 얼핏 비합리적이어 보인다. 그러나 장기적으로 볼 때 이들이 손해볼 일은 없다.
규모 중심 패러다임에서는 AI 모델을 학습·실행에 소요되는 연산 자원이 갈 수록 증가한다. AI가 현재처럼 비싼 기술로 남는다면 AI 공급망 전반을 지배하는 빅테크는 컴퓨팅 자원 공급을 통제하여 이득을 볼 수 있다. 반면 AI가 지금보다 효율화된다면 인프라 비용 절감을 통해 더 많은 제품을 공급할 수 있게 된다. 그러므로 어쨌건 빅테크는 AI에 대한 수요가 늘어날 수록 이득을 보는 구조다.
AI 시장 성장은 데이터센터 인프라를 확보한 기업에 매우 유리하기 때문에 빅테크 기업은 적극적으로 인프라 확장에 투자한다. 동시에 예상보다 성장이 미약할 경우 막대한 매몰 비용을 회수하지 못할 위험에 대비하여, AI 인프라에 대한 공공자금 투입을 적극 로비한다. 이 구조에서 위험과 손실은 전기사업자 등 공공서비스, 일반 납세자, 그리고 정부에 전가된다.
3장 “기록을 참고하기”는 이미 각 영역에 도입된 AI 기술이 어떻게 사회·경제·정치를 악화시켜 왔는지 복기한다.
AI의 ‘생산성 신화’는 AI가 전례 없는 생산성 증대를 가져올 것이며 그 혜택이 모두를 이롭게 하리라는 복음을 담고 있다. 그러나 AI로 생산성이 늘어난다면 그것은 기업과 주주의 이익으로 귀결되지, 노동자나 일반 대중이 그 혜택을 입으리라 기대할 수 없다. 오히려 AI는 노동을 쪼개고 자동화하여 더욱 취약하게 만드는 플랫폼 노동 경제와 궤를 같이 한다.
또한 교육, 사법, 의료, 복지 등 각종 분야에 AI를 적용하여 사회문제를 해결하겠다는 근래의 기술만능론적 경향 속에서, 문제해결은 분야 전문성과 예산 투입에 기반한 구조적 개입 대신 손쉬운 AI 도구의 도입으로 갈음된다. 더구나 대다수의 사람들은 AI 시스템의 이용 주체이기보다 이용 대상(금융, 채용, 주거, 이민 단속 등)이 된다. 이러한 기술 적용은 흔히 개인의 선택 여지 없이 강압적으로 이루어지며 당사자의 권리를 축소하는 방향으로 작용한다.
AI가 과학 연구와 사회 문제 해결에 기여할 수도 있지만 이때 말하는 AI, 예를 들어 암 진단이나 의약품 연구에 기여하는 기술은 현재 AI 대세론의 중심에 있으며 하이퍼스케일 데이터센터 등 막대한 자원 투자의 근거가 되는 생성형 AI가 아니다. 오히려 생성형 AI 기술은 기본적인 기능도 제대로 수행하지 못하는 경우가 많으며 잘못된 정보를 사실인 것처럼 제시하는 ‘환각’, 편향과 차별적 결과물 등 생성형 AI의 약점들은 AI 모델 규모가 커질 수록 더욱 심각해진다.
4장 “행동 지침”은 AI에 맞서 주체적 위치를 되찾기 위한 전략과 사례를 제시한다. 이를 위해서는 AI가 ‘발전’을 둘러싼 싸움이 아니라 ‘권력’을 둘러싼 싸움임을 인식하고, 정의와 민주주의에 반하는 AI 도입에 저항해야 한다.
AI 산업의 작용은 보통 사람들의 이해관계에 반한다는 점을 공략한다. AI 관련 의제를 다른 의제와 연결하는 것뿐만 아니라, 일반 노동 계급의 이익에 반하는 핵심 행위자로서 AI 산업을 더욱 명확히 타깃해야 한다. AI 기반 행정, 데이터센터 구축, 알고리즘 기반 가격/임금 책정 등에 대한 대중적 반발을 기반 삼아 더 폭넓은 운동을 구축해야 한다.
AI를 활용한 사회적 포획에 맞서는 가장 명확한 길은 노동 조직화다. 개별 업장 내 AI 도입 여부와 방식을 협상하는 데 그치는 것이 아니라, 기술 영역 전반의 권력 구조를 재조정하고 AI 발전 경로를 공익과 공유재에 복무하도록 이끌어나가는 더 큰 목표를 지향해야 한다.
AI 정책은 ‘제로트러스트’에 기반해야 한다. AI 기업의 선의만 믿고 바라보는 것은 현명하지도 효과적이지도 않다. 해로운 AI 용례를 금지하고, AI 기술 생애 주기 전체를 규제하며, AI를 만들어 돈을 버는 산업이 스스로를 규제하고 평가하지 못하도록 해야 한다.
AI 의제 및 정책 대응은 AI 공급망 전체를 조망해야 한다. 이를 위해 다양한 영역 전문성, 정책, 내러티브를 연결해야 한다. 국가 안보 논리를 탈규제가 아닌 책임성 부여의 근거로 되찾아 오고, 기존의 데이터 보호 장치를 자동화·시장 독점에 대항하는 도구로 활용해야 한다.
AI에 의존하지 않으며 대중이 중심이 되는 혁신 의제를 되찾는다. 대규모 AI가 불가피하다는 관념을 벗어날 때 우리를 위한, 우리에 의한 기술로 진정한 혁신과 흥미로운 대안을 추구할 수 있다.
보고서의 핵심 메시지는 AI 기술을 둘러싼 작금의 사회적 상황을 ‘기술 발전’의 문제가 아니라 ‘권력 투쟁’으로 이해해야 한다는 것이다. AI를 ‘기술 발전’의 관점으로 바라보는 것은 곧 그것의 불가피성을 수용하는 일로 손쉽게 이어진다. (발전을 왜, 무슨 수로 막는단 말인가?) 그러나 AI를 ‘발전’시키는 방법은 하나가 아니며, 빅테크의 권력을 강화하는 AI만이 유일한 경로도 아니다.
‘AI는 거스를 수 없는 변화’라는 담론이 기술기업으로의 권력 집중을 정당화하지 못하게 하려면 우선 ‘AI는 거스를 수 없다’는 명제가 객관적 현실이 아닌 ‘담론’이라는 점을 분명히 해야 한다. 기술을 고정된 상수로 놓고 사회와 사람을 그 작용에 끼워 맞추려는 세계관에서 벗어나야 한다.
보고서는 미국 상황에 집중하지만, 한국의 맥락에서도 중요한 시사점을 갖는다. 한국에서는 ‘소버린 AI’, ‘AI 3강’ 등의 키워드를 필두로 ‘미국 빅테크로부터 독립적인 한국판 빅테크’를 위한 정부와 업계의 적극적 공모가 이루어지고 있다. 얼마 전 공개된 「대한민국 인공지능행동계획(안)」이나 「인공지능 기본법 시행령」 제정안 등이 이러한 기조를 잘 보여준다. AI 만능론, 규모 우선주의, 기술 패권 담론, 반규제론 등 보고서에서 지적하는 AI의 ‘거짓 우상’은 한국의 AI 정책안에도 그대로 등장한다. 빅테크의 전술을 한국에서 재현하려는 시도는 마찬가지로 기술의 영향을 받는 대다수의 사회 구성원을 취약하게 만들 위험을 갖는다.
혜택과 위험을 불균등하게 배분하는 기술의 권력 작용에 주목하고, 개입해야 한다. AI를 둘러싼 사회적 변화는 단지 ‘기술’만이 아니라 모든 영역에 연관되는 문제이기에, 사회 의제 전반과 AI 관련 의제를 연결하고 확장할 필요가 있다. 전통적인 정보인권 관련 단체뿐만 아니라 노동, 교육, 여성계 등 시민사회 전반에서 인공지능행동계획(안) 관련 의견이 나오고 있는 현재 상황은 그래서 고무적이다.
한편 AI 산업이 만든 기술을 받아들이냐 마느냐의 문제를 넘어서, 어떤 AI 기술을 만들어갈지 온 사회가 주체적으로 관여해야 한다. 이를 위해 노동 운동이 중요하다는 보고서의 제언은 한국에서도 울림이 크며, 특히 AI 산업 내에서 기술 제작에 직접 관여하는 노동자와 AI의 영향을 받는 노동자들의 연대 모색이 시급히 요청된다. 📖
[1] Kate Brennan, Amba Kak, and Sarah Myers West, “Artificial Power: AI Now 2025 Landscape”, AI Now Institute, June 3, 2025,
글쓴이. 고아침
기술노동자, 번역가, 독립연구자. 인공지능을 둘러싼 기술정치와 윤리, 데이터 정의, 비판적 기술 실천에 주목한다. 디지털 기술에 대한 애정과 환멸 사이에서 양가성을 조율하며 시민으로 잘 살고자 한다. 『AI 윤리 레터』에서 운영진 겸 필진을, 디지털 시민 광장 빠띠에서 공익데이터 부문 활동가를 맡고 있다.
| 🧐 AI의 공공성을 말하는 새로운 조건, Public AI (0) | 2026.03.21 |
|---|---|
| 🙅♀️ 되풀이되지 않아야 할, AI 사고 데이터베이스 (0) | 2026.03.21 |
| 🔍 BBC와 KBS, 방송사 AI 가이드라인 톺아보기 (0) | 2026.03.21 |
| 💥 저널리즘부터 새로운 '현장'까지, AI 다큐멘터리 사례와 쟁점 (0) | 2026.03.21 |
| ✅ 다큐멘터리 제작자를 위한 AI 윤리 가이드: APA의 최신 기준과 사례 (0) | 2026.03.21 |
댓글 영역