“코로나19에 피해를 입은 유통망 등 인공지능(AI) 시스템을 강력하고 지속가능하게 만들 수 있는 방법에 대해 다시 생각해봐야 한다.”
독일 베를린의 허티 거버넌스 스쿨(Hertie School of Governance)에서 AI 분야 연구를 하고 있는 조안나 브라이슨(Joanna Bryson) 교수는 “코로나19 팬데믹 이후 AI이 우리 사회를 어떻게 변화시킬지 고민해야 한다”고 31일 조언했다.
브라이슨 교수는 오는 9일부터 10일까지 이틀간 ‘스몰 체인지 딥 임팩트, 앱노멀(AB-normal) 시대의 도래’라는 주제로 열리는 ‘제12회 GGGF(Good Growth Global Forum)’에서 기조강연을 맡았다. 그는 AI 윤리 분야 권위자로 구글 AI 윤리 자문위원을 역임했으며, 유럽 최고의 싱크탱크 중 하나인 유럽정책연구센터(CEPS)의 과학분야 이사회 멤버로 활동 중이다. 현재 허티 거버넌스 스쿨에서 코로나19 항체 테스트가 사회에 어떤 영향을 미치는지에 대해 연구하고 있다.
브라이슨 교수는 “팬데믹 이전에는 글로벌화된 공급 체인은 전 세계에 자본과 상품, 서비스 등을 유통할 수 있는 최적의 방법이라고 생각했다”며 “실제로 엄청난 발전을 이뤘고, 이 과정을 통해 2000년 이후 인류 절반이 극심한 가난에서 벗어났다”고 설명했다.
이어 “하지만 팬데믹이 진행되는 현재에는 비행기와 여행객이 방문하지 않는다는 이유로 약 20억명의 사람이 안정적으로 식량을 공급받지 못할 위기에 처했다”고 덧붙였다.
코로나19 사태로 세계 각국은 이동 제한과 봉쇄령에 따른 노동력 부족 현상을 겪고 있으며 식량 생산에 차질을 빚고 있기 때문이다. 국제노동기구(ILO)는 하루 벌어 하루 먹고 사는 전 세계 노동자 20억명이 생계 위기에 직면했다고 밝혔다. 이 점을 브라이슨 교수가 짚은 것이다.
이 문제에 대해 브라이슨 교수는 “AI의 많은 부분은 디지털 커뮤니케이션과 같은 일반적인 분야 외에 유통망 등에 사용된다”며 “우리 시스템을 강력하고 지속가능하게 만들 수 있는 방법에 대해 생각해야 한다”고 말했다.
전세계는 이번 팬데믹 사태에 코로나19 백신 개발부터 디지털 인프라 구축까지 다양한 방면에 AI를 활용하고 있다. 이에 AI의 윤리적 사용에 관한 문제는 더욱 중요성이 커질 전망이다.
브라이슨 교수는 “경제협력개발기구(OECD)와 G20 모두 AI가 인간 중심(human-centered)이어야 한다는 원칙을 세우기 위해 서명했다. AI 시스템은 투명해야 하며 소유자와 개발자 모두 이에 대한 책임을 져야한다”며 “이를 강조한 많은 사람은 인권 협약, 지속 개발 가능한 개발 목표와 같은 다양한 유엔(UN) 협약과 같은 이론을 따르고 있다”고 밝혔다.
그러면서 브라이슨 교수는 “우리의 이상적인 역할은 중심을 잡는 것”이라며 “우리는 AI를 활용해 더욱 발전하고 번성해 지속 가능하고 공명한 프레임 워크를 성공적으로 추구할 수 있어야 한다”고 덧붙였다.
특히 브라이슨 교수는 AI가 악의적인 용도에 사용하지 않도록 해야 한다고 주장했다.
브라이슨 교수는 “AI는 과거 과학과 기술이 그랬듯 다양한 용도로 많이 사용돼 우리의 삶과 사회, 생태계에 아주 많은 장점을 가져다주는 동시에, 큰 피해를 입히고 있다”며 “단순히 멋져 보이고 매력적이라는 이유로 기술을 받아들여서는 안 된다”고 경고했다.
AI가 마케팅 도구로 사용되기보다는 원칙에 따라 사용돼야 한다는 것이다. 실제 AI를 이용한 해킹이나 피싱, 감시와 자료수집, 억압 기술 등은 우리 삶에 큰 영향을 미칠 것이라고 IT업계는 우려하고 있다.
특히 AI 알고리즘은 사람이 만든 것이기 때문에 개발자의 편견이 개입될 수 있다. 이에 미국, 일본, 유럽 등 앞서 AI 연구를 하고 있는 국가는 ‘인간 중심의 AI 사회 원칙안’을 수립하고 있다. 한국에서도 AI 윤리 가이드라인 마련을 위한 목소리가 나오고 있다.
브라이슨 교수는 “프린스턴대에서 안식년을 보내는 동안 컴퓨터 과학자 에일린 칼리스칸과 아빈드 나라야난 교수가 내가 연구하던 AI의 편견 연구에 관심을 보였다”며 “특히 아빈드 교수는 우리가 발견한 암묵적인 편견이 실제 세계에도 적용되는지 확인하려는 아이디어를 갖고 있었고 이를 확인했다”고 말했다.
브라이슨 교수는 프린스턴 대학의 정보 기술 정책 센터 에일린 칼리스칸, 아빈드 교수와 함께 인공 지능이 인간 언어를 배우게 된다면 그 속에 숨어있는 편견도 반드시 배우게 된다는 연구를 2017년 사이언스지에 게재한 바 있다.
그는 “우리의 연구 결과는 인간이 적극적으로 나서서 편견을 없애도록 합의해야 한다고 나왔다”며 “이 세상은 중립적일 수가 없기 때문에 그 어떤 교육 시스템도 중립을 지킬 수 없다. 공정이라는 개념은 우리가 구성해가는 것이며 적극적으로 행동해서 쟁취하는 것”이라고 강조했다.
규제에 대해서는 찬성하는 입장을 보였다. 무분별한 규제가 아닌 사회적 공감대를 얻은 규제는 필요하다는 것이다.
브라이슨 교수는 “놀이나 도구, 직업, 사회적 운동 등 우리와 함께하는 어떤 것이 인류에게 지속적이고 품위있는 방법으로 도움을 주고 있는지, 어떤 것이 사회와 생태계에 대한 책임과 의무를 무시하고 있는지, 어떤 것이 적극적으로 범죄나 권력 남용에 사용되고 있는지 지속적으로 개입해서 알고 있어야 한다”며 “우리는 모두 교육받아야 하며 정치적으로 개입하여야 한다”고 강조했다.
이어 그는 “규제가 혁신을 방해하는 것이라는 근거 없는 미신이 존재하는데, 이는 사실이 아니다”라면서 “규제되지 않는 사회에게는 기술이나 혁신이 있을 수 없다”고 했다.
그러면서 브라이슨 교수는 “규제는 사람이 미래에 영속될 수 있는 방법”이라며 “핵심은 법을 회피하는 것이 아니라 강력하고 지속 가능하며, 공정한, 창의적이고 빠르게 성장하는 사회를 지원할 수 있는 법을 마련하는 것”이라고 설명했다.
그는 정부의 역할을 특히 강조했다. AI가 모든 분야에서 제대로 일하고 투명하고 책임감 있게 운영될 수 있도록 가이드를 만들어야 한다는 것이다.
브라이슨 교수는 “정부는 투명적이고 책임감 있게 운영돼야 한다”며 “모든 분야에서 제대로 일을 하고 고객이 윤리적으로 올바른 서비스와 제품을 구매할 수 있도록 하기 위해서는 시간과 돈, 그리고 끈기 등이 뒷받침돼야 한다”고 말했다.
반면 기업은 정부가 사업을 방해하지 않고, 경쟁사의 불법행위를 감시하는 수준으로도 만족할 것이라고 했다.
또 글로벌 사회가 AI에 대해 단합해서 대응해야 한다고 했다. 어느 나라가 AI를 잘 활용할 수 있을지 예측할 수 없기 때문이다.
브라이슨 교수는 “우리는 지구 전체가 팬데믹과 같은 상황에 대비할 수 있도록 돕고 있다”며 “독일과 한국을 포함해 최소 15개 국가가 운영하는 ‘글로벌 파트너십 포 AI’(Global Partnership for AI)와 함께 일하는 과학자로서 전세계적으로 모두가 앞으로 다가올 변화에 대비할 수 있도록 하며, 이미 변화가 시작된 부분에 대해 빠르게 대응할 수 있도록 돕고 있다”고 말했다.
인간처럼 생각하고 대화할 수 있는 AI 개발 가능성에 대해서는 중립적인 입장을 유지했다.
그는 “질문에 답변을 위해 글을 쓰는 과정에도 철자와 문법이 맞도록 도와주는 AI 자연어 처리(NLP)가 개입하고 있다”며 “앞으로 윤리적인 문제를 해결한 자연어 기반 서비스가 상용화될 가능성이 있어 보인다”고 했다.
다만 AI가 탑재된 스마트 기기에 대해서는 논의가 필요하다고 했다.
브라이슨 교수는 “사람들이 다양한 디바이스에게 말을 건네고 이런 정보가 권력과 조종을 위해 사용되는 것을 방지하기 위한 안전한 방법이 마련되어 있지 않다”며 “스마트 기기로부터 얼마큼의 기능을 원하는지에 대해 생각해볼 필요가 있다. 언젠가는 하루를 어떻게, 얼마 동안 AI 기능을 활용해 보낼지 AI의 판단에 맡기는 날이 올 수도 있다”고 말했다.
독일 베를린의 허티 거버넌스 스쿨(Hertie School of Governance)에서 AI 분야 연구를 하고 있는 조안나 브라이슨(Joanna Bryson) 교수는 “코로나19 팬데믹 이후 AI이 우리 사회를 어떻게 변화시킬지 고민해야 한다”고 31일 조언했다.
브라이슨 교수는 오는 9일부터 10일까지 이틀간 ‘스몰 체인지 딥 임팩트, 앱노멀(AB-normal) 시대의 도래’라는 주제로 열리는 ‘제12회 GGGF(Good Growth Global Forum)’에서 기조강연을 맡았다. 그는 AI 윤리 분야 권위자로 구글 AI 윤리 자문위원을 역임했으며, 유럽 최고의 싱크탱크 중 하나인 유럽정책연구센터(CEPS)의 과학분야 이사회 멤버로 활동 중이다. 현재 허티 거버넌스 스쿨에서 코로나19 항체 테스트가 사회에 어떤 영향을 미치는지에 대해 연구하고 있다.
브라이슨 교수는 “팬데믹 이전에는 글로벌화된 공급 체인은 전 세계에 자본과 상품, 서비스 등을 유통할 수 있는 최적의 방법이라고 생각했다”며 “실제로 엄청난 발전을 이뤘고, 이 과정을 통해 2000년 이후 인류 절반이 극심한 가난에서 벗어났다”고 설명했다.
코로나19 사태로 세계 각국은 이동 제한과 봉쇄령에 따른 노동력 부족 현상을 겪고 있으며 식량 생산에 차질을 빚고 있기 때문이다. 국제노동기구(ILO)는 하루 벌어 하루 먹고 사는 전 세계 노동자 20억명이 생계 위기에 직면했다고 밝혔다. 이 점을 브라이슨 교수가 짚은 것이다.
이 문제에 대해 브라이슨 교수는 “AI의 많은 부분은 디지털 커뮤니케이션과 같은 일반적인 분야 외에 유통망 등에 사용된다”며 “우리 시스템을 강력하고 지속가능하게 만들 수 있는 방법에 대해 생각해야 한다”고 말했다.
전세계는 이번 팬데믹 사태에 코로나19 백신 개발부터 디지털 인프라 구축까지 다양한 방면에 AI를 활용하고 있다. 이에 AI의 윤리적 사용에 관한 문제는 더욱 중요성이 커질 전망이다.
브라이슨 교수는 “경제협력개발기구(OECD)와 G20 모두 AI가 인간 중심(human-centered)이어야 한다는 원칙을 세우기 위해 서명했다. AI 시스템은 투명해야 하며 소유자와 개발자 모두 이에 대한 책임을 져야한다”며 “이를 강조한 많은 사람은 인권 협약, 지속 개발 가능한 개발 목표와 같은 다양한 유엔(UN) 협약과 같은 이론을 따르고 있다”고 밝혔다.
그러면서 브라이슨 교수는 “우리의 이상적인 역할은 중심을 잡는 것”이라며 “우리는 AI를 활용해 더욱 발전하고 번성해 지속 가능하고 공명한 프레임 워크를 성공적으로 추구할 수 있어야 한다”고 덧붙였다.
특히 브라이슨 교수는 AI가 악의적인 용도에 사용하지 않도록 해야 한다고 주장했다.
브라이슨 교수는 “AI는 과거 과학과 기술이 그랬듯 다양한 용도로 많이 사용돼 우리의 삶과 사회, 생태계에 아주 많은 장점을 가져다주는 동시에, 큰 피해를 입히고 있다”며 “단순히 멋져 보이고 매력적이라는 이유로 기술을 받아들여서는 안 된다”고 경고했다.
AI가 마케팅 도구로 사용되기보다는 원칙에 따라 사용돼야 한다는 것이다. 실제 AI를 이용한 해킹이나 피싱, 감시와 자료수집, 억압 기술 등은 우리 삶에 큰 영향을 미칠 것이라고 IT업계는 우려하고 있다.
특히 AI 알고리즘은 사람이 만든 것이기 때문에 개발자의 편견이 개입될 수 있다. 이에 미국, 일본, 유럽 등 앞서 AI 연구를 하고 있는 국가는 ‘인간 중심의 AI 사회 원칙안’을 수립하고 있다. 한국에서도 AI 윤리 가이드라인 마련을 위한 목소리가 나오고 있다.
브라이슨 교수는 “프린스턴대에서 안식년을 보내는 동안 컴퓨터 과학자 에일린 칼리스칸과 아빈드 나라야난 교수가 내가 연구하던 AI의 편견 연구에 관심을 보였다”며 “특히 아빈드 교수는 우리가 발견한 암묵적인 편견이 실제 세계에도 적용되는지 확인하려는 아이디어를 갖고 있었고 이를 확인했다”고 말했다.
브라이슨 교수는 프린스턴 대학의 정보 기술 정책 센터 에일린 칼리스칸, 아빈드 교수와 함께 인공 지능이 인간 언어를 배우게 된다면 그 속에 숨어있는 편견도 반드시 배우게 된다는 연구를 2017년 사이언스지에 게재한 바 있다.
그는 “우리의 연구 결과는 인간이 적극적으로 나서서 편견을 없애도록 합의해야 한다고 나왔다”며 “이 세상은 중립적일 수가 없기 때문에 그 어떤 교육 시스템도 중립을 지킬 수 없다. 공정이라는 개념은 우리가 구성해가는 것이며 적극적으로 행동해서 쟁취하는 것”이라고 강조했다.
규제에 대해서는 찬성하는 입장을 보였다. 무분별한 규제가 아닌 사회적 공감대를 얻은 규제는 필요하다는 것이다.
브라이슨 교수는 “놀이나 도구, 직업, 사회적 운동 등 우리와 함께하는 어떤 것이 인류에게 지속적이고 품위있는 방법으로 도움을 주고 있는지, 어떤 것이 사회와 생태계에 대한 책임과 의무를 무시하고 있는지, 어떤 것이 적극적으로 범죄나 권력 남용에 사용되고 있는지 지속적으로 개입해서 알고 있어야 한다”며 “우리는 모두 교육받아야 하며 정치적으로 개입하여야 한다”고 강조했다.
이어 그는 “규제가 혁신을 방해하는 것이라는 근거 없는 미신이 존재하는데, 이는 사실이 아니다”라면서 “규제되지 않는 사회에게는 기술이나 혁신이 있을 수 없다”고 했다.
그러면서 브라이슨 교수는 “규제는 사람이 미래에 영속될 수 있는 방법”이라며 “핵심은 법을 회피하는 것이 아니라 강력하고 지속 가능하며, 공정한, 창의적이고 빠르게 성장하는 사회를 지원할 수 있는 법을 마련하는 것”이라고 설명했다.
그는 정부의 역할을 특히 강조했다. AI가 모든 분야에서 제대로 일하고 투명하고 책임감 있게 운영될 수 있도록 가이드를 만들어야 한다는 것이다.
브라이슨 교수는 “정부는 투명적이고 책임감 있게 운영돼야 한다”며 “모든 분야에서 제대로 일을 하고 고객이 윤리적으로 올바른 서비스와 제품을 구매할 수 있도록 하기 위해서는 시간과 돈, 그리고 끈기 등이 뒷받침돼야 한다”고 말했다.
반면 기업은 정부가 사업을 방해하지 않고, 경쟁사의 불법행위를 감시하는 수준으로도 만족할 것이라고 했다.
또 글로벌 사회가 AI에 대해 단합해서 대응해야 한다고 했다. 어느 나라가 AI를 잘 활용할 수 있을지 예측할 수 없기 때문이다.
브라이슨 교수는 “우리는 지구 전체가 팬데믹과 같은 상황에 대비할 수 있도록 돕고 있다”며 “독일과 한국을 포함해 최소 15개 국가가 운영하는 ‘글로벌 파트너십 포 AI’(Global Partnership for AI)와 함께 일하는 과학자로서 전세계적으로 모두가 앞으로 다가올 변화에 대비할 수 있도록 하며, 이미 변화가 시작된 부분에 대해 빠르게 대응할 수 있도록 돕고 있다”고 말했다.
인간처럼 생각하고 대화할 수 있는 AI 개발 가능성에 대해서는 중립적인 입장을 유지했다.
그는 “질문에 답변을 위해 글을 쓰는 과정에도 철자와 문법이 맞도록 도와주는 AI 자연어 처리(NLP)가 개입하고 있다”며 “앞으로 윤리적인 문제를 해결한 자연어 기반 서비스가 상용화될 가능성이 있어 보인다”고 했다.
다만 AI가 탑재된 스마트 기기에 대해서는 논의가 필요하다고 했다.
브라이슨 교수는 “사람들이 다양한 디바이스에게 말을 건네고 이런 정보가 권력과 조종을 위해 사용되는 것을 방지하기 위한 안전한 방법이 마련되어 있지 않다”며 “스마트 기기로부터 얼마큼의 기능을 원하는지에 대해 생각해볼 필요가 있다. 언젠가는 하루를 어떻게, 얼마 동안 AI 기능을 활용해 보낼지 AI의 판단에 맡기는 날이 올 수도 있다”고 말했다.
©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지