무서워요. 정말 무서워요.
인공지능(AI)의 상상할 수 없을 만큼 엄청난 계산 능력으로 인해 인터넷 전체를 감시하고 검열하는 것이 가능해졌습니다.
이것은 미래의 디스토피아가 아닙니다. 지금 일어나고 있습니다.
정부 기관은 대학 및 비영리 단체와 협력하여 AI 도구를 사용하여 인터넷의 콘텐츠를 감시하고 검열하고 있습니다.
이것은 정치적이거나 당파적이지 않습니다. 이것은 어떤 특별한 의견이나 생각에 관한 것이 아닙니다.
지금 일어나고 있는 일은 인터넷에서 말하고 행하는 모든 것(또는 그 상당 부분)을 감시할 만큼 강력한 도구가 정부에 제공되어 우리 모두를 항상 감시할 수 있게 되었다는 것입니다. 그리고 그 감시를 기반으로 정부와 정부가 협력하는 모든 조직이나 회사는 같은 도구를 사용하여 마음에 들지 않는 발언을 억압하고 침묵시키고 종식시킬 수 있습니다.
하지만 그게 전부는 아닙니다. 정부와 공공-민간, "비정부" 파트너(예를 들어 세계보건기구나 몬산토)는 같은 도구를 사용하여 인터넷에 연결된 모든 활동을 중단할 수도 있습니다. 은행 업무, 구매, 판매, 교육, 학습, 오락, 서로 연결 - 정부에서 통제하는 AI가 트윗이나 이메일에서 여러분(또는 여러분의 아이들!)이 하는 말을 좋아하지 않으면 여러분을 대신하여 모든 것을 중단할 수 있습니다.
예, 우리는 이를 매우 지역적이고 정치적인 규모로 보았습니다. 예를 들어, 캐나다 트럭 운전사.
하지만 이런 유형의 활동이 국가적(혹은 더 무섭게는 전 세계적) 규모로 일어날 수 없거나 일어나지 않을 것이라고 생각했다면, 우리는 지금 당장 깨어나 이런 일이 일어나고 있다는 사실을 깨달아야 하며, 이를 막을 수 없을 수도 있다는 것을 알아야 합니다.
새로운 문서에 따르면 정부 자금 지원 AI가 온라인 검열을 목적으로 함
연방정부 무기화에 관한 미국 하원 특별소위원회 2023년 XNUMX월에 "행정부 기관에서 미국 시민에 대한 정보를 수집, 분석, 배포 및 사용하는 것과 관련된 문제를 조사하기 위해" 설립되었습니다. 여기에는 이러한 노력이 불법, 위헌 또는 기타 비윤리적인지 여부가 포함됩니다.
안타깝게도 위원회의 업무는 위원들조차도 대체로 정치적인 것으로 여긴다. 보수파 의원들은 진보 성향의 정부 기관이 보수적 목소리를 침묵시키고 있다고 보고 이를 조사하고 있다.
그럼에도 불구하고, 이 위원회는 조사를 진행하면서 미국 시민의 언론을 검열하려는 정부의 시도와 관련된 놀라운 문서를 몇 가지 발견했습니다.
이러한 문서는 사회 전체에 중대하고 무서운 영향을 미칩니다.
소위원회의 중간 보고서에서, 5년 2024월 XNUMX일자문서에 따르면 학계와 비영리 단체가 정부 기관에 인터넷 플랫폼의 콘텐츠를 검열하기 위해 AI "허위 정보 서비스"를 사용하는 계획을 제안하고 있습니다.
구체적으로 미시간 대학은 NSF가 자금을 지원하는 AI 기반 도구를 사용하면 소셜 미디어 플랫폼이 실제로 검열해야 할 내용을 결정하지 않고도 검열 활동을 수행하는 데 도움이 될 수 있다고 국가과학재단(NSF)에 설명하고 있습니다.
이러한 관계는 소위원회 보고서에서 다음과 같이 시각화됩니다.

다음은 소위원회 보고서에 제시된 구체적인 인용문입니다. 이는 "NSF에서 자금을 지원하고 AI로 구동되는 WiseDex 도구에 대한 미시간 대학의 첫 번째 피치에서 나온 발언자 노트"에서 발췌한 것입니다. 이 노트는 위원회에 보관되어 있습니다.
저희의 허위 정보 서비스는 플랫폼의 정책 입안자들이…어려운 판단에 대한 책임을 회사 외부의 누군가에게 전가하고 싶어하는…검열이라는 어려운 책임을 외부화하는 데 도움을 줍니다.
이는 여러 측면에서 매우 특별한 진술입니다.
- 그것은 명백하게 "잘못된 정보 서비스"를 검열과 동일시합니다.
이는 전 세계 정부가 실제로는 해로운 잘못된 정보를 퇴치하는 척하지만 실제로는 그렇지 않기 때문에 매우 중요한 방정식입니다. 대규모 검열 법안 통과. 그만큼 WEF가 선언했다 "잘못된 정보와 허위 정보"가 향후 2년 동안 "가장 심각한 세계적 위험"으로 꼽혔는데, 이는 아마도 그들이 가장 많은 노력을 기울일 곳이 검열일 것이라는 것을 의미합니다.
정부 계약자가 온라인 플랫폼이 "검열을 외부화"하는 데 도움이 되는 "잘못된 정보 서비스"를 판매한다고 명시적으로 언급하는 경우 두 용어는 서로 바꿔 사용할 수 있는 것으로 인정됩니다.
- 검열을 "책임"이라고 합니다.
다시 말해, 플랫폼이 해야 할 일의 일부는 검열이라고 가정합니다. 어린이를 성 포식자로부터 보호하거나 무고한 시민을 잘못된 정보로부터 보호하는 것이 아니라, 그저 단순하고 순수한 검열입니다.
- AI의 역할은 검열에 대한 책임을 '외부화'하는 것이라고 명시되어 있습니다.
기술 플랫폼은 검열 결정을 내리고 싶어하지 않습니다. 정부는 그러한 결정을 내리고 싶어하지만 검열로 여겨지고 싶어하지 않습니다. AI 도구를 사용하면 플랫폼이 검열 결정을 "외부화"하고 정부가 검열 활동을 숨길 수 있습니다.
이 모든 것은 전 세계 정부가 "잘못된 정보와 증오 표현에 대응"이라고 부르는 것이 노골적인 검열이 아니라는 착각을 종식시켜야 합니다.
AI 검열이 완전히 구현되면 무슨 일이 일어날까?
정부가 이미 AI 검열 도구에 비용을 지불하고 있다는 사실을 알고 나면, 이것이 무엇을 수반하는지 생각해 보아야 합니다.
인력 제한 없음: 소위원회 보고서에서 지적했듯이, 지금까지 정부의 온라인 검열에 대한 한계는 끝없는 파일을 살펴보고 검열 결정을 내리는 데 필요한 수많은 인간을 포함했습니다. AI를 사용하면 거의 인간이 개입할 필요가 없으며, 감시할 수 있는 데이터의 양은 특정 플랫폼에서 누군가가 말하는 모든 것만큼 방대할 수 있습니다. 그 양의 데이터는 개인의 인간 두뇌로는 이해할 수 없습니다.
아무도 책임을 지지 않습니다: AI 검열의 가장 무서운 측면 중 하나는 AI가 검열을 할 때 정부, 플랫폼, 대학/비영리 단체 등 실제로 검열을 담당하는 사람이나 조직이 없다는 것입니다. 처음에는 사람이 AI 도구에 검열할 범주나 언어 유형에 대한 지침을 제공하지만, 그 다음에는 기계가 계속해서 케이스별 결정을 스스로 내립니다.
불만 사항에 대한 구제 수단 없음: AI가 검열 지침 세트를 가지고 풀려나면, 그것은 수많은 온라인 데이터 포인트를 쓸어 모으고 검열 조치를 적용할 것입니다. AI 검열 조치에 이의를 제기하려면 기계와 대화해야 할 것입니다. 어쩌면 플랫폼이 항소에 응답하기 위해 인간을 고용할 수도 있습니다. 하지만 그들이 그러한 응답을 자동화할 수 있는 AI가 있는데 왜 그럴까요?
청소년 보호 없음: 정부 검열관들이 주장하는 것 중 하나는 우리가 아이들을 거식증에 걸리게 하거나 자살을 부추기거나 ISIS 테러리스트로 만드는 등의 유해한 온라인 정보로부터 보호해야 한다는 것입니다. 또한 성적 착취로부터도 보호해야 합니다. 이러한 모든 문제는 주의를 기울여야 할 심각한 문제입니다. 하지만 AI 검열만큼 많은 젊은이들에게 위험하지는 않습니다.
AI 검열로 인한 위험은 온라인에서 많은 시간을 보내는 모든 청소년에게 적용됩니다. 왜냐하면 이는 온라인 활동과 언어가 모니터링되고 그들에게 불리하게 사용될 수 있음을 의미하기 때문입니다. 지금은 아니더라도 정부가 특정 유형의 언어나 행동을 추적하기로 결정할 때마다 그럴 수 있습니다. 이는 특정 콘텐츠로 인한 위험보다 훨씬 더 많은 수의 어린이에게 훨씬 더 큰 위험입니다. 이는 온라인에서 수행하는 모든 활동을 포괄하며 삶의 거의 모든 측면에 영향을 미치기 때문입니다.
다음은 이 위험을 설명하는 예입니다. 십 대 자녀가 온라인에서 많은 대화형 비디오 게임을 한다고 가정해 보겠습니다. 그가 우연히 중국 회사가 디자인한 게임을 선호한다고 가정해 보겠습니다. 그는 또한 다른 사람들이 그 게임을 하는 것을 보고, 그 게임에 대한 채팅과 토론 그룹에 참여하는데, 여기에는 많은 중국 국민도 참여합니다.
정부는 다음 달이나 내년에 중국식 비디오 게임에 깊이 관여하는 사람은 누구나 민주주의에 위험하다고 결정할 수도 있습니다. 이는 아들의 소셜 미디어 계정을 폐쇄하거나 대학 대출과 같은 금융 도구에 대한 접근을 거부하는 결과를 낳을 수 있습니다. 또한 취업이나 데이트 웹사이트에서 그를 위험하거나 바람직하지 않은 사람으로 표시하는 것을 포함할 수도 있습니다. 여권을 거부하거나 감시 목록에 올릴 수도 있습니다.
십 대 자녀의 삶이 훨씬 더 어려워졌습니다. ISIS 모집 영상이나 자살을 미화하는 TikTok 게시물에 노출된 경우보다 훨씬 더 어려워졌습니다. 그리고 이것은 검열관들이 사용하는 성적 착취 온라인 정부 검열이라는 개념을 정상화하기 위한 트로이 목마로.
수익화 가능한 검열 서비스: 정부가 소유한 AI 도구는 이론적으로 정부의 허가와 검열에 대한 "책임"을 "외부화"하려는 플랫폼의 축복을 받아 비정부 기관에서 사용할 수 있습니다. 따라서 정부가 AI를 사용하여 반전 감정을 모니터링하고 억압하는 경우, 예를 들어 회사는 AI를 사용하여 패스트푸드 반대 감정을 모니터링하고 억압할 수 있습니다. 정부는 AI 도구의 서비스를 제3자에게 판매하여 많은 돈을 벌 수 있습니다. 플랫폼도 상상할 수 있듯이 수수료를 요구할 수 있습니다. 따라서 AI 검열 도구는 잠재적으로 정부, 기술 플랫폼 및 민간 기업에 이익이 될 수 있습니다. 인센티브가 너무 강력하여 악용되지 않을 것이라고 상상하기는 거의 불가능합니다.
우리는 항로를 바꿀 수 있을까?
얼마나 많은 정부 기관과 플랫폼이 AI 검열 도구를 사용하고 있는지 모르겠습니다. 얼마나 빨리 확장할 수 있는지도 모릅니다.
AI 도구에 대한 인식을 높이고 정치인들에게 로비를 하고, 정부 검열을 방지하고 인터넷에서 AI 도구 사용을 규제하기 위한 소송을 제기하는 것 외에 우리가 사용할 수 있는 도구가 무엇인지 모르겠습니다.
다른 아이디어가 있다면 지금이 구현할 때입니다.
에 의해 게시됨 Creative Commons Attribution 4.0 국제 라이센스
재인쇄의 경우 정식 링크를 원본으로 다시 설정하십시오. 브라운스톤 연구소 기사와 저자.