인간 중심 AI, 공정성‧윤리 등 발전 과제 산적… 변혁적 변화에 전담기관도 필요
  • 최종윤 기자
  • 승인 2021.12.14 08:30
  • 댓글 0
이 기사를 공유합니다

KAIST, 지난 12월 10일 인공지능과 미래사회 국제심포지엄 개최

[인더스트리뉴스 최종윤 기자] “AI 시스템은 인간이 좋아하는 것을 충족시켜줘야 한다.” 인공지능 분야의 교과서로 불리는 ‘인공지능: 현대적 접근방식’을 집필한 스튜어트 러셀(Stuart Russell) 美 UC버클리대학교 전기공학 및 컴퓨터과학과 교수가 AI 기술 발전에 대한 우려에 대안적 접근법을 제시했다.

지난 12월 10일 KAIST가 개최한 ‘인공지능과 미래사회 KAIST 국제심포지엄’에서 스튜어트 러셀 美 UC버클리대학교 전기공학 및 컴퓨터과학과 교수가 AI 기술 발전에 대한 우려에 대안적 접근법을 제시했다. [사진=KAIST]

AI가 사람들의 지식과 생각을 더 잘 학습해 효과적이고 최적화로 나아간다면, 실질적으로 인간의 혜택과 합치되지 않을 수도 있다는 인식에서다. AI가 인간들에게 해악을 가져올 수 있다는 뜻이다. 1951년 앨런 튜링(Alan Turing)은 “인간은 인간을 뛰어넘는 기계에 대한 통제력을 잃을 것”으로 밝힌 바 있다.

러셀 교수는 앨런 튜링의 견해에 대해 “우려는 옳았지만, 결론은 틀렸다”면서, 구체적으로 ‘어시스턴스 게임’이라는 모델을 제시했다. AI 머신이 행동을 취할 때, 인간의 선호가 불확실 할 때는 인간에게 의사결정을 넘기는 방식이다. 이럴 경우 인간의 다양한 선호도에 대한 학습이 전제돼, AI 시스템이 개선되고 지능이 늘어날수록 인간에게 더 나을 것이라는 취지다.

KAIST(총장 이광형)가 지난 12월 10일 ‘인공지능과 미래사회 KAIST 국제심포지엄’을 열고, 공정성·윤리·정책·기후변화 등 인공지능을 둘러싼 총 네 가지 문제를 핵심 주제로 선정해 논의했다. 스튜어트 러셀 교수는 기조 강연을 통해 위 같은 화두를 던졌다.

인공지능연구원, Post-AI 연구소, 한국4차산업혁명정책센터 등 KAIST에서 인공지능을 이끌어가는 대표적인 연구조직이 공동으로 주관하고 동원그룹이 후원한 이번 심포지엄에는 스튜어트 러셀 교수를 비롯, 구글 털시 도시(Tulsee Doshi) ‘책임있는 인공지능과 인간 중심 기술팀’ 제품 총괄, 세계경제포럼 케이 퍼스-버터필드(Kay Firth -Butterfield) 집행위원, AI 싱가포르 AI거버넌스 사이몬 체스터만(Simon Chesterman) 선임이사, 케임브리지 에밀리 슉버그(Emily Shuckburgh) 제로 이사 등 인공지능 분야를 세계적으로 선도하는 13명의 해외 전문가와 7명의 KAIST 교수가 심도 있는 논의를 펼쳤다.

스튜어트 러셀(Stuart Russell) 美 UC버클리대학교 전기공학 및 컴퓨터과학과 교수 [사진=카이스트]

윤리성 위한 AI 표준, ‘투명성’ 단어 많이 언급

첫 번째 세션인 ‘인공지능과 공정성’에서는 다양성으로 인해 발생하는 정당한 차이를 공정하게 처리하는 인공지능을 만드는 것이 가능한가에 대한 논의가 이뤄졌고, 두 번째, ‘인공지능 윤리’에서는 오랜 세월 분투해왔지만, 여전히 비윤리적인 행동 문제를 해결하지 못한 인간이 과연 ‘윤리적인 인공지능’을 만들 수 있는지에 대해 다뤘다.

세계경제포럼 AI·머신러닝 총괄 케이 퍼스-버터필드 집행위원은 “‘윤리적’이라는 것은 ‘올바른 방식으로 가는 것’”이라며, “사실 책임성 있는 AI 등을 논의할 때, 기업 측면에서 먼저 해결해야 할 문제를 다뤄야 한다고 생각한다”고 말했다.

케이 퍼스-버터필드 집행위원은 “현재 190여개 이상의 조직들이 AI의 윤리를 다루기 위해 논의를 하고 있다”면서, “이렇게 되면 190개 이상의 원칙이 만들어지는 것이기 때문에 공통된 원칙이 필요하다”고 말했다.

케이 퍼스-버터필드 집행위원은 공통적 원칙으로 △신뢰도 △보안 △다양성 △포용 △공정성 △설명가능성 △투명성 △안전성 △시스템의 책임성 △인간의 선택의지 등 10가지를 들었다.

UWE 브리스톨 앨런 윈필드 로봇윤리학 교수(캠브리지대학 산하 미래지능센터CFI 연구)는 “윤리적인 문제해결을 위해 많은 표준들이 제정되고 있다”면서, “흥미로운 부분은 투명성이라는 단어가 가장 많이 언급되고 있다는 점”이라고 밝혔다.

지능형 시스템에서 투명성은 실제로 어떤 것이 왜 이러한 방식으로 행동을 하는지에 대해서 알 수 있어야 한다는 의미다. 비전문가들도 이해할 수 있게 시스템의 행동 이유를 설명할 수 있어야 한다.

앨런 윈필드 교수는 △문제 발생시 원인파악 △인간과의 신뢰 2가지 이유를 들어 투명성의 중요성을 강조했다. 앨런 윈필드 교수는 “우리 인간은 우리 시스템이 이것을 왜 하는지, 그리고 무엇을 하는지를 이해할 필요가 있다”면서, “이러한 이해가 없다면 우리는 이런 시스템을 믿을 수가 없다. 따라서 투명성이라고 하는 것은 책임성과 그리고 신뢰의 근간이 되는 매우 중요한 요소”라고 강조했다.

국립비엔나대학 마크 코겔버그 미디어&기술학 교수는 “AI기술은 하나의 기회가 되기도 하지만, 인간의 자율성을 해치게 돼 정치적 이슈가 있을 수 있다”면서, “예를 들어 행동을 기후친화적으로 해야 한다고 암시 등을 하는 경우, 인간이 가지고 있는 자율성 등에 영향을 미쳐 정치적인 영향으로 나타날 수도 있다”고 밝혔다.

현재 국수주의를 표방하고 있는 나라들도 많이 있기 때문이다. 마크 코겔버그 교수는 “글로벌 차원의 기후변화 문제 등은 글로벌 차원에서 해결해야 하고, 그렇기 때문에 글로벌 거버넌스도 필요하다”고 밝혔다.

인공지능과 미래사회 KAIST 국제심포지엄 주요 참여 연사 사진 [사진=카이스트]

AI는 매우 변혁적, 관련 규제 담당 기관 필요해

세 번째 세션인 ‘인공지능 정책’ 순서에는 각국 정부가 인공지능 활성화에 박차를 가하기 위해 연구 개발(R&D)과 인프라에 막대한 투자를 감행하고 있는 승자독식의 기술 경쟁 구도 속에서 우리가 설계해야 할 자율적인 관리 방식이 논의됐다.

미래학자 마틴포드는 “AI 정책에 대해서 이야기를 할 때 우리는 기회이자 위험이라는 AI의 양면성을 이해하는 것이 중요하다”면서, “아울러 실제로 이러한 AI를 십분 활용해야 하는 정책이 나와야 한다”고 전제했다.

마틴포드는 “AI 위험과 관련해 규제라든지 룰이 분명히 필요해 보이기는 한다”면서도, “인공지능 전체를 다 규제하고 연구를 제약하기 보다는. AI가 제대로 적용될 수 있도록 하는 정책이 필요하다”면서, “AI 기관 등 특정 전담기관이 관련 규제들을 담당할 수 있게 해야 한다. 지금 이 모든 것들이 빠르게 진행되고 있기 때문에 어느 때보다 시급하다”고 밝혔다.

마틴포드는 “AI는 매우 변혁적이어서 기존 룰과 사회 규범들을 재정의 해야 할 것”이라고 강조했다.

마지막 순서로는 ‘인공지능과 기후변화’ 논의됐다. 기후변화 연구는 항상 데이터를 기반으로 진행된다. 기후 영향을 추적하고 예측하려면 상당한 양의 시공간 정보가 필요하기 때문이다. 세계 각국이 최대의 공동 과제인 기후변화에 대응해 활용할 수 있는 최신 인공지능 기술을 논의하고 해결방안을 제시했다.

한편, 행사를 후원한 동원그룹의 김재철 명예회장은 “인공지능은 더 이상 선택이 아닌 국가 생존을 위한 필수 조건이며, 미래는 데이터의 바다를 항해하는 인공지능을 통해 발전해갈 것ˮ이라고 환영사를 전했고, KAIST 이광형 총장은 개회사를 통해 ”인공지능과 함께 살아갈 미래 세상을 대담하게 상상해달라ˮ고 당부하며, “인공지능에 관한 각양각색의 상상과 토론이 더 나은 인류의 미래를 견인하는 구체적인 기술과 정책, 제도로 구현되길 기대한다ˮ고 전했다.

 


관련기사

댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.