한국어
    • 한국어
    • ENGLISH
    • 日本語
    • 中文-繁體

    2022.02.04 AI Framework

    AI [Human] Framework #2. AI 시대의 철학자들

    The Challenge of Philosophers

    AI 시대의 철학자들

    인공지능은 종종 ‘블랙 박스(Black Box) 인공지능’이라 불리웁니다. 알고리즘에 의해 결론이 도출된 근거나 그 과정을 알아내는 데에 한계가 있기 때문인데요. 이로 인해 2022년 산업 트렌드 분석에서 책임 있는 인공지능(Responsible AI, RAI), 설명 가능한 인공지능(Explainable AI, XAI)이 가장 중요한 이슈로 떠올랐습니다. 인공지능이 나아가야 할 방향에 대한 고민은 비단 테크 기업만의 숙제는 아닐 것입니다. 모든 사회 구성원에게 투명하고, 신뢰할 수 있는 인공지능 기술이 구현되려면 개발자를 비롯해 여러 이해 관계자가 대화에 참여하고 지혜를 모아야 할 것입니다.

    [AI FRAMEWORK]는 인공지능과 인류의 미래를 고민하는 세계적인 석학들의 눈을 통해 ‘AI를 바라보는 새로운 관점’을 제시하는 엔씨의 새로운 콘텐츠 시리즈입니다. 엔씨의 AI Center 설립을 주도하며 첨단 기술의 윤리적 문제를 탐구해 온 윤송이 CSO가 공학, 정치학, 철학 등 각 분야의 리더들을 만나 서로의 생각과 관점을 나눕니다.

    제임스 미킨스 교수에 이어 대화를 나눌 인물은 하버드 대학의 임베디드 에틱스(Embedded EthiCS) 공동 창립자인 철학자 앨리슨 시몬스 교수입니다. 공학자와 철학자가 서로 어떻게 다른지, AI 시대에 필요한 철학자의 역할은 무엇인지에 대해 이야기 나눠 보겠습니다.

    AI [Human] Framework

    1. Why Embedded EthiCS?

    하버드의 도전, Embedded EthiCS?

    2. The Challenge of Philosophers

    AI 시대의 철학자들

    3. Are Humans Really That Special?

    인간이 정말 그렇게 특별한가요?

    Songyee Yoon

    엔씨소프트의 사장(최고전략책임, CSO)이자 북미 법인(NC West) 최고 경영자로 엔씨의 글로벌 사업 전략을 총괄하고 있다. 엔씨의 AI Center 설립을 주도해 AI와 NLP에 관한 다양한 연구 개발 성과를 기업 경영에 접목하고 있다. 특히 AI가 미치는 사회적 영향과 AI 윤리를 지속적으로 고민하며, 현재 미국 스탠퍼드 인간중심 AI 연구소(Human-Centered AI Institute, HAI) 자문 위원과 메사추세츠 공과대학(MIT) 이사회 이사로 활동 중이다.

    Alison Simmons

    미국의 철학자이자 하버드 대학의 Samuel H. Walcott 철학 교수이다. 시대의 변화에 따른 인간 철학과 심리에 관심이 많아 이를 이용한 다양한 분야에서 활동 중이다. 컴퓨터 과학 커리큘럼의 윤리적인 모듈을 개발하는 프로그램인 하버드 임베디드 에틱스(Embedded EthiCS)의 공동설립자로서 활발히 프로그램을 운영 중이다. 하버드 대학교의 과학사 학부 겸임 교수(Faculty Affiliate)로 활동하며 지난 2017년에는 “Mind-Body Union and the Limits of Cartesian Metaphysics”을 집필하였다.

    Great Harmony Between CS and Philosophy

    다른 행성에 살고 있는 철학자와 공학자

    윤송이   앨리슨(Alison Simmons) 교수님과 바바라 그로스(Barbara J. Grosz) 교수님은 이 일을 시작하시기 전에 이미 좋은 관계이셨던 것 같아요. 그런데 다른 컴퓨터 과학자와 함께 일하는 건 어떠신가요? 특별히 어려운 점은 없으셨나요? 가끔 교수님만 다른 언어로 말하는 것 같다거나 다른 행성에 살고 있는 것 같다고 생각하신 적이 있나요?

    앨리슨 시몬스   참 재미있는 게 이전에 제가 알던 컴퓨터 과학자는 1명뿐이었어요. 그리고 저는 기쁜 마음으로 놀랐어요. 하나의 예로 우리는 가진 능력과 이루고자 하는 바가 비슷하죠. 우리는 모두 문제 해결자죠. 그리고 우리는 명확한 주장을 좋아하고요.

    하지만 다른 점도 있어요. 컴퓨터 과학자는 보통 확실한 답을 원하잖아요, 그렇죠? 이 부분이에요. 저희 철학자는 확실한 답이 없는 것에 익숙하거든요. 이런 점이 어려운 부분이었죠. 그렇지만 컴퓨터 과학자는 대체로 열려 있고 잘 받아들입니다. 그들이 이해할 수 있도록 가끔 우리가 도와주거든요. 예를 들면 “자 이러한 규칙을 알고리즘에 프로그래밍을 합시다. 그럼 윤리적 시스템이 완성돼요.” 하는 식으로 되는 게 아니잖아요.

    그래도 다행인 건 그들은 정말 호기심이 넘친다는 거예요. 그리고 하버드의 또 다른 장점 중 하나는 우리 엔지니어와 과학자가 인문 과학(liberal arts) 기관의 구성원이 되기 위해 이곳에 온다는 거예요. 이곳이 순수 공학 기관이었다면 더 힘들었을 거라고 생각해요.

    윤송이   네, 정말 훌륭하네요. 그런데 제가 공학을 공부하던 시절을 되돌아보면, 저희는 항상 기능을 최적화하도록 교육받았어요.

    반면에 철학에서는 옳고 그름이 무엇인지, 삶과 죽음이 무엇인지 등 정의하기가 정말 어렵잖아요. 그래서 저는 철학자가 가르치는 사고 과정과 틀을 코드화하는 것이 얼마나 힘들지 상상이 됩니다.

    컴퓨터 과학자와 일을 하면서 무엇을 배우셨나요? 그들과 세상을 바라보는 관점이 다르다고 느끼신 게 있나요?

    앨리슨 시몬스   좋은 질문이에요. 한 가지 확실히 할 점은 우리는 코드화하지 않는다는 거예요. 그래서 우리의 목표를 절충하는 방법이 있는데요. 컴퓨터 과학을 전공한 제 동료 중 한 명이 참 멋지게 표현을 했었는데, 정확한 말은 생각은 안 나지만 정말 중요한 것은 딱 두 가지라고 하더군요. 문제를 분명하게 표현하는 개념적 자원을 가져야 하고, 그런 문제에 대해 생각하도록 훈련된 다른 사람들이 있다는 것을 아는 것이죠.

    저희의 목표는 컴퓨터 과학자가 코드를 짜면서 모든 문제를 해결해야 한다고 느끼도록 하는 게 아닙니다. 저희는 그저 그들이 무작정 이건 내 문제가 아니라고 말하기보단 무언가에 대한 막연한 예감을 가질 수 있길 바라는 거예요. 걱정거리가 무엇인지, 누구를 위한 걱정인지, 또 누구를 위한 걱정이 아닌지 분명하게 표현하는 도구를 주는 겁니다. 그들이 누군가에게 그 예감을 말할 수 있고, 그들이 고민할 때 도움을 줄 수 있는 누군가를 찾거나, 혹은 윤리 위원회에 문제를 제기하도록 말이죠.

    중요한 건, 그들이 실제로 그 대화에 참여할 수 있다는 겁니다. 아시다시피, 아는 것은 힘이니까요. 그런 개념적 자원을 갖는 것, 걱정되는 점을 표현할 줄 아는 것. 이것을 컴퓨터 과학자가 할 수 있길 바라는 것입니다.

    윤송이   네, 저도 대부분의 엔지니어는 정답을 찾으려고 노력한다고 생각해요. 그냥 코드화를 하거나 버그나 에러가 없도록 흑백의 방식으로 구현하는 정도로 말이죠. 그래서 저는 무엇이 정답인지 알 수 없다면, 그건 도전이라고 생각해요. 이 프로그램이나 기계가 특정한 상황해서 무엇을 해야 하는지 모르기에 마찬가지로 큰 도전이 될 거고요. 교수님이 그 도전의 어려움을 이해하고 있더라도 마찬가지일 거예요.

    앨리슨 시몬스   맞아요. 송이 님도 한 가지 할 수 있는 게 있어요. 철학자와 엔지니어 모두에게 익숙한 일이죠. 바로 몇 가지 ‘가정(assumption)’을 내려 놓는 거예요. 우리가 함께 어떤 프로젝트를 진행한다고 가정해 봅시다. 그 프로젝트의 목표를 설정하고, 프로젝트에서 가장 걱정되는 사용자들이 있다고 해 보는 거예요. 프로젝트를 수행하면서 저희는 A 등과 같은 이유로 무언가를 할 거고, 그런 다음 코드를 왜 이렇게 짰는지 설명도 하겠죠. 그리고 문제가 있다고 말하는 겁니다. “A라는 이유로 이렇게 코드를 짰는데 이걸 바꿀 수도 있어.” 하며 처음에 했던 가정을 바꾸는 거예요. 모든 것을 영원히 변함없이 유지해야 하는 건 아니잖아요. 우리가 실수를 하지 않을 것도 아니고요.

    이렇게도 할 수 있어요. 가설을 세우고, 설계를 해 봅시다. 이건 사실 모듈 예제에서 나온 건데요, 비디오 게임을 설계한다고 해 볼게요. 그 게임은 포괄적으로 설계가 되어야 하는데, 포용책에 대해 두 가지 다른 개념이 있는 거예요. 그렇다면 이 설계는 어떻게 달라질까요? 이렇게 가정하는 연습을 통해 우리는 더 나은 결과를 만들 수 있을 겁니다. 우리는 실제로 둘 중 하나만 선택하게 될 거고, 하나의 제품만 판매해야 하는 상황을 마주할 테니까요. 하지만 이런 식으로 연습하면 첫째, 자신이 왜 그렇게 선택했는지 설명할 수 있고, 신중하게 결정했다는 것도 분명히 할 수 있습니다. 그리고 둘째, 나중에 그 선택을 바꿀 수도 있죠.

    윤송이   네, 맞아요. 방금 교수님께서 말씀해 주신 부분은 엔지니어가 프로그램의 기능을 위한 디버깅(debugging) 도구뿐만 아니라 윤리적인 의미에 대해서도 더 고민해야 한다고 생각하게끔 하네요. 시간이 지나면서 사회는 변하기 때문에, 사람들이 10년 전에 시스템을 구현하면서 세웠던 가정이 사회가 진화하면서 변했는지 확인했다면 다시 돌아가 일부 변수들을 수정할 수 있는지를 확인하고 싶을 테니까요.

    The Role of a Philosopher Today

    철학자에게 주어진 새로운 고찰

    윤송이   저와 같은 공학자는 항상 철학자가 저 구름 위 어딘가에 있는 것 같다고 생각했어요. 우리 삶과 동떨어져 있다고 느꼈거든요. 그런데 저희가 마주하는 대부분의 문제와 상황을 철학에 뿌리를 두고 있는 질문과 사고방식에서 찾을 수 있다는 점이 놀라워요. 교수님은 앞으로 철학자의 역할에 대해 어떻게 생각하시나요? 철학자가 더 나은 사회를 만드는 데 어떻게 더 기여할 수 있을까요?

    앨리슨 시몬스   제 강의를 재미 삼아 수강했던 레이첼 스미스(Rachel Smith)라는 학생이 있어요. 레이첼은 컴퓨터 과학 전공자로 제 철학 개론 수업을 들었죠. 그녀는 저에게 점심을 같이 먹자고 하더니 “교수님, 저는 정말로 철학을 공부하고 싶어요. 그런데 제 세대에서 하고 싶어요. 테크 세대 말이에요.”라고 하더군요. 저는 격려하며 말했어요. “그래, 그게 바로 네가 할 일이야. 하지만 지금은 아무것도 없기 때문에 여러 역경을 헤쳐 나가야 할 거야. 어떻게 해야 할지 네가 직접 알아내야 해.” 저는 그녀가 옳다고 생각해요. 송이 님도 아시다시피, 우리는 오늘날에 맞는 철학을 해야 하잖아요.

    앨리슨 시몬스   저는 철학이 좀 더 친근해야 한다고 생각해요. 저희가 하는 일은 정말 중요하거든요. 저희가 하는 몇몇 연구는 기초 과학이라 연구실을 벗어날 일이 없지만, 어떤 연구는 연구실 밖으로 나가야 해요. 아이디어는 실제로 세상을 바꾸거든요. 그리고 송이 님 말씀처럼 우리가 우리 자신에 대해 생각했던 모든 기본적인 개념들이 현시대의 기술에 의해 흔들리고 있어요. 사람이란 무엇인지, 인간이란 유기체는 무엇인지, 생명은 무엇인지, 감정은 무엇인지. 이런 질문은 저희 철학자들이 생각하도록 훈련받은 것이거든요.

    그래서 제가 최근에 생각한 건, 철학자는 가능하다면 대중을 위한 글을 써야 한다는 거예요. 물론 저는 글을 그렇게 잘 쓰지 못하지만, 몇몇 글쓰기를 잘하는 동료들이 있어요. 저는 이런 게 정말 필요하다고 생각해요. 우리 철학자는 저널리즘을 해야 하고 거기에 시간을 쏟아야 합니다.

    우리 철학자들은 전문 분야 안에서 더 깊이 파고들려고 하죠. 여기서 벗어나려는 노력이 필요합니다. 그래도 제 동료들은 대부분 폭넓은 비전을 가지고 있고, 젊은 세대들도 역시 그래요. 그래서 저는 매우 희망에 차 있습니다.

    Societal Conversation: Why It Matters

    지금은 사회적 대화가 필요할 때

    앨리슨 시몬스   저희가 언젠가 대화하다가, 송이 님이 사람의 정서 반응(emotional responses)을 이끌어 내는 다양한 기기에 대해 말씀하신 적이 있어요. 어떤 문화에서는 정서 반응을 이끌어 내는게 정말 좋은 일일 수 있어요. 하지만 또 다른 문화에서는 아닐 수도 있죠. 수치심 같은 걸 불러일으킬 수 있거든요. 이런 것들에 대해 인지하고 있어야 하고, 상황에 따라 바꿀 수 있어야 한다는 거죠.

    윤송이   그것뿐만 아니에요. 저는 심지어 한 문화 안에서도 무엇이 적절하고, 무엇이 옳은 것인지 말하기 힘들기 때문에 이 문제가 더 어려운 것 같아요. 아마 철학자가 합리적인 설명과 답을 찾으려는 문제 중 하나일 거라고 생각합니다. 그리고 저희가 이야기한 예시 중 하나는 특정한 성격과 감정을 따라 하거나, 그런 것이 주어진 ‘인공적인 존재(artificial being)’였어요. 사실 기계가 감정이나 성격을 가질 수 있는지에 대한 가능성 여부는 완전히 다른 문제입니다.

    사용자의 관점에서 그런 서비스나 인공적인 존재가 어떤 정서적 공감을 보인다는 이유로 사용자가 그에 대해 더 신뢰하거나 확신하게 되면 기업에서는 서비스를 더 많이 판매하기 위해 그 신뢰를 악용할 거예요. 이를 어떤 사람은 악용이라고 할 수 있고, 또 어떤 사람들은 일종의 효과적인 마케팅이라고 할 수도 있습니다. 그리고 이런 일을 하는 데 흑과 백으로 나누는 어떤 실재하는 기준이 없어요. 만약 트렌드가 이런 방향으로 계속 흘러간다면, 저는 결국 무엇이 해로운 것인지 알리는 사회적 관점이 필요하다고 생각합니다. 대답하기 매우 복잡한 질문인 것 같네요.

    앨리슨 시몬스   네, 정말 복잡한 문제예요. 그렇기 때문에 모두가 대화에 참여해야 합니다. 코드 짜는 사람을 포함해서요. 그래서 저는 그들이 개념적인 도구를 갖길 원해요. 그러면 그들은 무엇이 가능하고 불가능한지 알 테니까요. 이상적으로는 철학자가 대화에 참여하고, 정부가 대화에 참여하고, 사용자가 대화에 참여해야 합니다. 정말 사용자들도 대화에 참여할 필요가 있어요. 쉽지는 않겠죠. 하지만 지난번에 제임스 교수님께서도 말했듯, 기술은 전문 분야 안에 있는 것이 아니라 우리 삶의 일부입니다. 우리가 하는 모든 것에 개입되어 있죠. 그렇기 때문에 우리는 이에 대한 사회적인 대화를 해야 합니다.

    *각주1) 정서 반응(emotional responses): 정서는 감정, 생각, 행동과 관련된 경험적, 행동적, 생리적 상태로, 정서 반응은 이를 자극하는 대상에 대한 반응을 의미한다.

    *Any endorsements, views, opinions, and appearances shared by the interviewee are made solely in his/her/their personal capacity; Harvard does not endorse this organization or its products or services.