AI의 중립성 기대는 환상일 뿐...공익 추구 '공공재'로 인식하는 사회적 합의 선행돼야

[인더스트리뉴스 성기노 기자] AI가 정치에 적용되면 신인들의 정치 입문 가능성을 높여주고 자금과 홍보의 장벽도 낮춰줄 수 있다. 그리고 방대한 데이터 수집을 통해 정책 분석과 대안도 제시해 준다. 특정 지역의 여론도 분석해 주고 선거 전략까지 수립해 줄 수도 있다.
그런데 AI가 인간에게 제시하는 다양한 자료들과 전략들은 과연 온전히 객관적이고 과학적인 것일까. 아니면 AI를 ‘프로그래밍’한 특정인들의 이익과 정치적 의도가 담긴 것일까. 사실 우리는 AI가 내놓는 대안과 답을 아무런 의심없이 그대로 수용하는 경향이 있다.
AI는 인간이 지난 30여년 간 생산해 낸 방대한 ‘텍스트’ 데이터를 특정 알고리즘으로 분류해 깔끔한 모범답안을 내놓는다. 그런데 이런 데이터를 기반으로 하는 AI가 과연 정치적으로 또 사회 문화 윤리적으로 중립적이며, 사람이 아닌 기계인 만큼 어느 한쪽의 이익을 우선하지 않는 중립적인 존재라고 생각할 수 있을까.
정치권이나 정부가 빅데이터를 활용해서 어떤 정책을 결정한다고 하면 정치적, 정파적 이해관계에 의한 것이라기보다 중립적이고 공정해서 믿음이 갈 것 같다는 생각이 든다. 왜냐하면 우리는 과학기술의 중립성과 공정성 ‘신화’를 맹신하며 그 ‘첨단’이 제시하는 답안은 무조건 신뢰하는 경향이 있기 때문이다.
알고리즘 설계자의 성향, 선호, 가치가 개입될 가능성
하지만 과학기술은 전혀 중립적이지 않다. 기술은 권력과 힘을 가진 특정 세력과 정파에 의해 얼마든지 통제되고 조종될 수 있다. 특히 AI의 경우 그것을 누가 작동하고 운영하느냐, 즉 알고리즘을 누가 만들고 관리하느냐에 따라 AI는 정치적, 사회적, 문화적 편향성을 가질 수밖에 없다.
전문가들은 “인공지능의 알고리즘을 설계하고 관리하는 사람 또는 집단의 성향, 선호, 가치 등의 요소가 처음부터 그 알고리즘에 반영될 가능성이 상당히 크다”라고 지적한다(박재형 2022).
그 대표적인 것이 2017년 아마존이 직원 채용 과정에 AI를 도입했다가 결국 폐지한 사례에 있다. 당시 아마존은 채용 담당자의 개인적 의견이 개입되지 않는 투명한 채용을 목표로 삼았다. 하지만 나중에 결과를 보니 AI가 남성 지원자를 선호하는 경향이 확인돼 결국 AI에 의한 채용을 중단했다고 한다. AI의 알고리즘을 설계할 때 그 설계자의 성향과 가치판단이 처음부터 개입됐기 때문에 생긴 일이었다.
알고리즘이 특정인의 기호와 성향에 영향을 받지만 데이터 자체도 그럴 위험성에 처해 있다. AI의 작동을 위한 바탕인 데이터 역시 같은 맥락에서 ‘편향성’ 우려가 제기된다. 데이터는 인터넷에 연결된 모든 사람과 관련 있을 뿐만 아니라 국가와 시민 간의 관계를 재구성한다.

이에 따라 사회적 정치적 문제를 일으킬 수 있다. 개인이 인터넷에 접속하는 순간부터 그 사람의 정치적 성향이나 개인의 기호마저 그대로 노출되면서 방대한 양의 디지털 흔적을 남기게 된다. 중국과 같은 사회주의 권위주의 국가는 개인정보와 데이터를 ‘국가 이익’을 명분으로 마음대로 활용될 가능성이 높다. 한국이 중국의 딥시크를 원천 차단한 것도 국민들이 개인정보가 중국 국가기관에 의해 ‘유린’될 가능성을 경계했기 때문이다.
사실 데이터는 전혀 중립적이지 않다. 오히려 정치적이다. AI는 학습 데이터에 의존하는데 이 데이터 자체가 편향될 수 있다. 예를 들어 뉴스 기사나 소셜 미디어 데이터를 학습하면 특정 정치적 관점이 더 많이 반영될 수 있다. AI가 데이터를 수집할 때 무엇을 수집하고 무엇을 무시할 것인지 그 선택은 알고리즘 개발자의 ‘정치적 성향’에 영향을 받을 수밖에 없는 것이다.
그런데 세상에 완전한 ‘중립성’이라는 것 자체가 존재하지 않는다. ‘정치적 중립’이라고 표방할 때 사람들마다 그 기준이 다르기 때문이다. 예를 들어 ‘인권’이라는 가치에 대해 생각해보자. 어떤 사람에게는 ‘인권 존중’이 누구나 추구해야 할 보편적이고 상식적인 가치라고 생각되지만 또 어떤 사람에게는 ‘인권’을 주장하는 것 자체가 특정 이념과 강하게 결부돼 있거나 정치적 목적을 관철시키기 위한 수단으로 의심하는 경향도 있다.
‘사회 다양성 데이터 협의 기구’의 필요성
그래서 전문가들은 AI의 완전한 중립성은 ‘환상’일 뿐이라고 지적한다. 결국 AI가 방대한 데이터를 학습하며 내놓는 다양한 ‘답안’들은 정치적 중립성을 최대한 유지하기 위해 철저한 관리와 윤리적 사용이 전제돼야 한다. 또한 알고리즘의 투명성을 높이고 시민사회의 견제도 받아야 한다.
AI를 정치에 적용할 때 인간은 데이터의 왜곡과 편향성을 예방하기 위해 다양한 방식으로 개입해 보정하고 보완을 해야 한다. 이것이 우리가 디지털 민주주의 시대에 반드시 실천해야 할 의무이자 책임이다. AI의 데이터 편향성을 최대한 보정하기 위해서는 데이터 풀에 사회적 약자와 소수자들의 정치적 이해관계까지 반영하는 일종의 ‘사회 다양성 데이터 협의 기구’가 필요하다.
그러기 위해서는 특정 정파에 치우치지 않도록 최대한 학습 데이터의 분포를 균형있게 해야 하고 다양한 정치적 관점을 포함하는 데이터셋을 구성해야 한다. 또한 지속적인 평가와 관리 감독이 필요하다. 그리고 AI의 결과물을 지속적으로 모니터링하고 평가하여 정치적 편향을 식별하고 개선해야 한다. 이를 위해 다양한 정치적 배경을 가진 전문가들로 구성된 감독 위원회를 구성할 수도 있다.
AI는 완전한 정치적 중립을 지키기 어렵지만 그 한계와 편향성의 오류 가능성을 인정하고 정보제공과 의사결정의 보조 수단으로서 활용할 필요가 있다. 그리고 무엇보다 AI에 대해 공익을 추구하는 공공재로 인식하는 사회적 합의도 선행돼야 한다. AI가 정치적인 중립의 길을 갈 수 있도록 끊임없이 유도하고 이끄는 사회적 노력이 곧 열린 민주주의로 가는 척도가 될 것이다. 이런 과정에서 우리의 '민주주의 학습'도 더 심화될 수 있다.