상세 컨텐츠

본문 제목

🧐 AI의 공공성을 말하는 새로운 조건, Public AI

독립 미디어 세미나

by acteditor 2026. 3. 21. 17:10

본문

[ACT! 142호 2026.02.27]

 툭 터놓고 말해보자. 사회 곳곳에서 AI가 도입되는 현실이 과연 우리에게 흥미롭기만 한지 말이다. ‘AI 강국’ ‘AI 대전환’이라는 슬로건 앞에서 떠오르는 불안은 없는지 말이다. 대중적 불안과 비관에도 불구하고, 우리는 AI 앞에서 쉽게 무력하다. 거대한 기술과 정책의 변화 앞에 그 변화의 당사자이기도 한 시민은 자꾸만 수동적인 위치에 높인다. 우리에게는 무엇이 필요할까. AI 기술과 정부 정책에 대해 이야기할 때 어떤 인식론에 기반해 어떤 것을 요구해야 할까? ‘독립미디어세미나’에서 ‘공공 AI’에 대해 접하면서, 현실에 개입하는 중요한 기준을 여기에서 참조할 수 있다고 생각하게 되었다. 공공 AI는 AI의 공공성을 담보하기 위한 ‘거버넌스 구조’에 대해 환기하며, 빅테크 주도의 AI가 불러온 현재의 악영향을 제어하는 데에 이것이 핵심적이라고 주장하기 때문이다.

 아래 소개할 내용은 ‘공공 AI 네트워크’의 웹사이트와 이들이 발간한 공공 AI 백서(2024.8 발간)에 주로 기반한 것이며, 이 글을 발행하는 지금 한국의 맥락에서 고민해볼 수 있는 지점에 대해서도 이야기해보고자 한다.

공공 AI 네트워크 웹사이트 (클릭 시 이동)

 

‘공공 AI’의 조건: 평등한 접근, 시민의 통제, 공공재 생산

 공공 AI 네트워크는 2023년 활동을 시작한 연구자, 실무자, 정책 입안자 및 기관들의 연합체이다. 크리에이티브 커먼스의 창시자인 로렌스 레식, AI 석학 요슈아 벤지오 등을 비롯한 개인과 모질라 재단, 미국 의회 도서관, 하버드 대학교 버크만 클라인 센터 등이 함께하고 있다. 공공 AI는 전기, 수도, 도로, 도서관 또는 인터넷과 같이 공공 인프라로서 제공되는 AI를 일컫는 개념으로, 이들이 발간한 공공 AI 백서에 따르면, 공공 AI는 아래의 3개 조건을 따라야 한다.

공공 접근성(Public Access)

: 핵심 역량에 대한 접근성 확대, 공정한 경쟁의 장 마련, 무료 또는 원가 수준으로 누구나 보편적으로 이용 가능 공공의 삶에 참여하는 데 있어 특정 역량은 매우 중요하므로 이에 대한 접근은 보편적이어야 한다. 모든 사람이 자신의 잠재력을 실현할 수 있도록 공공 AI는 직접적이고 저렴한 접근권을 제공한다.

공공 책임성(Public Accountability) 

공공의 이익을 최우선으로 고려, 공공의 목표 및 가치와 일치, 대중이 궁극적인 통제권을 가짐: 공익 증진이라는 아이디어에 반대하는 기술자는 거의 없다. 하지만 개발 과정에 대중의 참여를 적극적으로 구하거나, 대중이 결정에 반대할 때 경로를 수정하는 기업은 극히 드물다. '공공 책임성'은 대중에게 기술 개발을 진정으로 형성할 수 있는 권한을 부여하는 공공 AI의 핵심 개념이다. 공공 AI 시스템은 계획부터 유지 관리까지 대중을 적극적으로 포함하며, 자신들을 위해 구축된 시스템에 대해 대중이 궁극적인 통제권을 가질 수 있도록 보장하는 메커니즘을 통해 신뢰를 형성한다.

영구적 공공재(Permanent Public Goods)

지속 가능한 자금 조달 및 유지 관리, 공동의 노력에 대해 보상, 사적 독점 방지: 기술로 선한 영향력을 끼치고자 하는 개발자들은 지속적인 가치를 창출하는 데 필요한 자금을 확보하지 못하는 경우가 너무 많다. 하지만 민간 자본과 투자를 받아들이면 문제가 있는 장기적 인센티브 구조에 갇히게 되어, 조직이 불안정해지고 사회가 직면한 과제에 대한 진정한 혁신으로부터 멀어지게 된다. AI의 기회를 진정으로 실현하기 위해서는 다른 길을 갈 수 있게 해주는 지속 가능한 개발 모델이 필요하다. 

 이 조건은 아래의 표와 같이 구체적인 예시에 대입해보면 더욱 명확하게 다가온다. 우리가 접하는 민간 빅테크 기업의 대중적인 AI 서비스는 어떤가? 제한적으로는 접근 가능하지만, 공공 책임성과 영구적 공공재 원칙에서는 가장 멀다. 오픈소스 AI는 어떨까? 공공이 개입 가능한 거버넌스를 갖추지 않는다면 그 수혜가 사유화될 수 있다. 정부가 공공 서비스에 AI를 도입한다면 어떨까? 이 또한 민간 AI 기업에 의해 주도될 경우, 공공 책임성이나 공공재 원칙을 보장하지 못한다고 봐야 한다. 공공 AI는 이 모든 조건을 요한다.

인프라 거버넌스 접근법에 따른 공공성의 양상 (범례: ✅ 보장됨 ⚠️ 보장되지 않음 ❌ 선택 사항이 아님)

 이러한 공공 AI의 개발이 필요한 이유는 현재 초국적 기업이 주도하고 있는 경제 체제와 독점적 AI 생태계에 균열을 내기 위함이기도 하다. 로렌스 레식이 관련 행사에서 역설한 바를 인용하자면, 인터넷 또한 등장 당시 여러 공공적 가능성이 존재하는 기술이었지만, '사용자 참여를 극대화하기' 라는 수익모델이 등장한 이후부터는 이를 극대화하며 사회적 부작용을 낳는 소셜 미디어 위주로 환경이 재편되어 버렸다. AI의 수익 구조가 아직 명확해지지 않은 지금, 공공 AI에 투자하는 것이 빅테크가 사회에 외주화하는 치명적인 위험에 맞서는 일이다. 또한 보고서는 공공 AI가 전체 AI 생태계에서 책임 있는 AI 개발에 대한 기준을 제시하고 이것이 타 AI에도 채택되거나 의무화되도록 하는 역할을 견인할 수 있다고 강조하고 있다.

 2025년, 공공 AI 네트워크는 직접 미국 전역의 공공 도서관에 커뮤니티 기반 AI 서비스를 제공하는 시범 프로그램을 시작하기도 했다. 주요한 공공 거점인 도서관을 매개로 AI 도구와 리소스에 대한 접근성을 민주화하는 것이 주요한 목적이다. 이 서비스에서는 연구・학습 등을 위한 AI 채팅, 코드 개발 도구, 이미지・프레젠테이션・음악・비디오 등 창의적 도구, 교육 자료 등을 제공한다.

공공 AI 도서관 프로젝트 소개 (클릭 시 이동)

소버린 AI와 공공 AI, 무엇이 같고 다른가

 실제 존재하는 공공 AI는 어떤 모습일까? 공공 AI 네트위크는 위의 보고서에서 아래와 같은 예시를 들어 설명한 바 있다. 보고서 발행 시점인 2024년의 예시이며, 주로 ‘인프라’ 영역에 해당하는 예시로, 전체 AI 시장에 대응하는 모든 공공 AI가 등장하지는 않아 앞으로 구현이 필요하다고 보고 있다.

  • 컴퓨팅 영역(AWS, Azure 등에 대응): 미국 ‘NAIRR(국가 AI 연구 자원)’, 뉴욕시 ‘Empire AI’
  • 모델 영역(GPT-4, LLama, Claude 등에 대응): 스웨덴 ‘GPT-SW3’, 동남아시아 ‘SEA-LION’, 아랍에미리트 ‘Falcon’
  • 거버넌스 영역: 영국 ‘AISI(영국 AI 안전 연구소)’
  • 세계 각국의 공공 AI 사례: 싱가포르 ‘AI 싱가포르(동남아 지역의 소외된 인구 집단과 저자원 언어에 서비스를 제공)’, 미국 ‘NAIRR 파일럿(AI 관련 인프라 접근성을 높여 미국 연구자의 요구를 해결하기 위해 정부 지원 자원과 비정부 자원을 통합)’, 스위스 ‘스위스 AI 이니셔티브(과학, 교육, 로봇공학, 보건 및 지속가능성 분야 특화), 미국 ‘AuroraGPT(과학적 응용 및 연구 분야에 특화)’

 그런데 위 예시는 주로 국가 기금이 투여된 국가 단위의 AI라는 점에서 ‘소버린 AI’의 예시처럼 보이기도 하며, 보고서에서 공공 AI의 예시로 소버린 AI를 언급하기도 한다. 실제로 공적 영역에 AI를 도입해야 한다고 보는 것, 글로벌 빅테크 중심의 수탈적 경제 체제를 문제시하는 것, 각 지역의 고유한 문화와 언어 등에 특화된 AI의 필요성, 이를 위한 국가의 공적 투자 강조 등은 소버린 AI 담론과 만난다고 볼 수 있다.

 하지만 소버린 AI가 곧 공공 AI와 같은 개념이라고 볼 수는 없다. 소버린 AI의 주요한 초점은 산업 및 안보 차원에서 빅테크에 대한 국가의 종속을 피하며 국가 경쟁력을 확보하는 데에 있다. 특히 한국에서는 관련하여 자국 민간 기업을 지원 및 육성하는 정책 방향성이 두드러지고 있다. (기사: ‘K-엔비디아’ 육성을 위해 5년간 50억원을 투자) 이와 구분하여 요약하자면 공공 AI의 접근법은 공적 자금으로 공적 영역에서 누구나 활용 가능한 오픈소스 AI를 개발하는 것에 가깝다. 민간 기업의 경쟁력 확보와 성장을 목적으로 한 국가적 지원 정책을 곧 공공 AI 정책으로 이해해서는 안될 것이다.

 그러나 공공 AI 또한 기금을 국가에 주요하게 의지하고 있는 터라 국가와의 관계를 논할 때는 분명한 긴장이 존재한다. 이를 비롯한 문제에 대해 모질라 재단은 공공 AI에 대해 발간한 보고서에서 ‘공공 AI의 위험과 도전 과제’를 다음과 같이 언급하였으며, 개발자와 정책 입안자, 기업, 시민단체, 개인 등 다양한 주체의 노력을 강조했다.

첫째, 성공적인 '오픈소스 AI 커먼즈(공용 자산)'를 만드는 것 뿐만 아니라, 이것이 신뢰할 수 있는 방식으로 사용되도록 보장하는 메커니즘을 함께 발전시켜야 합니다. 다시 말해, 우리가 공공재를 만들 때 '공공적 지향점'의 중요성을 놓쳐서는 안 된다는 뜻입니다. 이를 간과하면 공공 AI 이니셔티브라 할지라도 편향성과 감시를 가속화하거나, 부정확하고 해로운 콘텐츠를 생성하는 등의 폐해를 여전히 고착화할 수 있습니다.

둘째, 공공 AI 이니셔티브가 장기적으로 존속하고 민간 시장과 경쟁력을 유지하려면 지속 가능한 수익 모델이 필요합니다. 초기 투자뿐만 아니라, 공공 AI 프로젝트는 공공 비용과 지속적인 대중의 접근성 사이의 균형을 맞추면서 유지 관리를 지원할 수 있는 지속적인 수익원을 계획해야 합니다.

마지막으로, 정부는 비상업적 인센티브 시스템을 지원하는 자연스럽고 중요한 원천이 되겠지만, 공공 AI가 오직 정부에만 의존해서는 안 됩니다. 정부가 공공 AI 개발을 통제하는 것이 일부 안전 조치를 강제하는 데 도움이 될 수도 있겠으나, 지난 몇 년간 전 세계적으로 광범위한 선거 개입, 시민권과 자유의 퇴보, 그리고 비자유주의적 지도자들의 부상을 목격해 왔기 때문입니다.

 

기업과 국가가 아닌, 시민이 말하는 공공성의 조건

 사회 각계각층에 AI가 도입되면서, AI 기술을 기반으로 공공성을 구현하는 것을 목적으로 하는 시도들을 국내에서도 만나볼 수 있다. 카카오임팩트의 ‘테크포임팩트’, 현대차의 ‘CMK 임팩트프러너’, 네이버 커넥트재단 등 기업 재단 또한 공공적 목적의 AI와 관련한 사회공헌 프로젝트를 진행하고 있다. 지자체나 보건복지부 등 각 부처의 세부 정책에 AI가 도입될 때에도 공공성을 더 잘 구현할 수 있음이 근거가 되고 있을 것이다.

 그러나 공공 AI 담론은 선한 목적의 차원을 넘어, 공공성을 담보하기 위한 주체와 구조의 문제를 상기시킨다. 개개인이나 기업에게 AI 윤리를 지킬 것을 요구하는 것이 아니라, AI가 윤리적이려면 시민이 AI 기술의 기획과 운영에 개입할 수 있는 구조가 필요하다고 말한다. 오픈소스 AI가 그러하듯, 현실에서 공공 AI를 구현하는 것에는 실질적이고 구체적인 토론이 요구되며 그 과정에서 여러 난점 또한 마주할 것이다. 하지만 글로벌 빅테크의 AI로 인한 변화에 일방적으로 영향받는 위치에 놓였던 이들을 위한 공공성의 조건으로서 공공 AI 담론이 국내에서도 적극적으로 주목되고 또 토론되길 바란다. 📖


글쓴이. 이세린

고양이가 좋은 인터넷 인간. 공동체미디어 활동을 계기로 미디액트에서 일하게 됐다.

 

관련글 더보기

댓글 영역