[인공지능 연재] 사람 같다는 말은 무슨 뜻일까?
현안과이슈 / by 나드 / 작성일 : 2024.07.15 / 수정일 : 2024.07.31



2020년 말, 생성형 AI에 대한 관심이 본격적으로 고조되기 시작할 무렵, 여섯 명의 과학자가 함께 ‘확률론적 앵무새의 위험성’이라는 논문을 발표한다. 이 글의 연구자들은 자연어 처리 모델의 발전을 두고 잠시 질문을 던져보자고 말한다.
 

<영어 처리 속도를 두고 치열한 순위권 경쟁을 하면서 데이터의 규모를 불리기에 급급할 때, 이러한 모델이 환경과 경제에 미치는 위험성은 어떨까? 모조리 쓸어 담는 방식보다 신중한 데이터 수집 방법은 무엇일까? 개발 목표를 더 잘 달성하면서도 이해관계 충족에 부합하는 개발 방식은 없을까?

여섯 명 가운데 한 사람은 흑인 여성 데이터 과학자이자, 당시 구글 사에서 AI 윤리 기구를 이끌었던 팀닛 게브루(Timnit Gebru)였다. 게브루의 글에 대해 알게 된 구글 사는 논문을 발간 전에 철회할 것, 혹은 논문에서 게브루를 포함한 구글 직원의 이름 전부를 제외할 것을 요구했다.

게브루는 이를 받아들이지 않았다. 그는 구글에서 해고 되었다고 밝혔고, 구글은 그가 자진 사임했다고 주장했다. 수천 명의 항의 서한이 제출되었지만, 게브루는 결국 복직되지 않았다.


약 4년이 흐른 지금, AI는 언어 모델뿐 아니라 이미지, 음악과 음성, 동영상까지 ‘생성’해 내고 있다. ChatGPT나 Claude 등 유명 AI 서비스는 텍스트를 출력할 때도 문서를 한꺼번에 제공하는 대신, 마치 타자를 치듯 흘러가는 텍스트로 제공한다.

사용자는 실시간으로 주어지는 듯한 텍스트를 보며 AI와 대화를 하고 있다는 인상을 받게 되지만, 과연 이것이 진짜 대화나 ‘생성’일까?

메시지를 생성하는 것과 데이터 통계의 값을 '출력'하는 데에는 큰 차이가 있다. 이를 두고 지난 6월 한국을 찾은 작가 테드 창(Ted Chiang)은 창작에서 중요한 것은 의도라고 강조하며, AI를 통해 만들어진 결과물은 예술로서 가치가 없다는 지적을 하기도 했다.

가상 인간 여리지의 초기 이미지 ⓒ한국관광공사

2022년 한국관광공사는 AI 명예 홍보대사인 ‘여리지’를 선보였다. 약 8억 원을 들여 제작된 것으로 알려진 여리지는 여행 인플루언서로서 공식 인스타그램 계정과 틱톡 채널이 있다. 그런데 여리지 공개 이후, 이 ‘가상 인간’이 특정 연예인을 닮았다는 논란이 일었다. 한국관광공사는 초상권을 침해한 적이 없다고 주장했으나 여리지는 새로운 ‘고도화’를 거쳐야 했다.

2023년 다시 등장한 여리지는 현재에도 다양한 사진에서 확인할 수 있다. 그런데 이 ‘버추얼 휴먼’은 사진 속에서 다른 실존 인물과 악수하고, 관광 중인 사람들과 어울리고 있다. 이런 일이 가능하기 위해서는 여리지의 실존하는 신체 부분을 담당하는 모델이 따로 있어야만 한다.

모델은 현실에서 활동하며 사진 속에 담기지만, 사진은 다른 얼굴이 덧씌워진 채 여리지의 계정에 업로드된다. 이러한 여리지의 이미지를 보고 '자연스럽다'라거나 '진짜 같다'고 한다면 이는 당연한 일일 것이다.

올해 5월 13일, ChatGPT의 개발사로 널리 알려진 OpenAI 사는 자사의 새로운 서비스인 음성 AI 비서의 데모를 공개했다. Sky라는 이름의 이 서비스는 자유로운 대화와 의사소통이 가능한 서비스로 기대를 모으고 있었다.

OpenAI 사의 CEO 샘 올트먼(Sam Altman)은 Sky를 공개하면서, 자신의 소셜 미디어에 ‘her’라는 한 단어짜리 게시글을 올렸다.

샘 올트먼의 트윗 ⓒTwitter

이는 AI 데이팅 서비스와 한 남성의 이야기를 다루었던 영화 〈Her〉(2013)를 강하게 연상시켰다. 실제로 이 서비스를 사용해 본 이들은 Sky의 음성이 해당 영화에 음성 출연했던 배우 스칼렛 요한슨(Scarlett Johansson)의 목소리와 유사하다는 인상을 받았다.

그러나 배우 요한슨은 OpenAI 사에 음성 사용을 허락한 적이 없었다고 밝히며, 이는 도용이라 고발했다. 
요한슨은 이전에도 수차례 목소리를 도용당한 적이 있었다.

요한슨은 또한 올트먼이 그에게 목소리 사용을 요청한 적이 있으나 자신은 거절했다고 공개했다. 사측은 요한슨에게 음성 이용을 제안하기 전에 이미 다른 성우들을 물색하고 고용 중이었다는 글을 게시했지만, 비판이 끊이지 않자 결국 며칠 만에 서비스를 폐쇄했다.

사용자가 AI 서비스를 이용하며 받는 ‘진짜 같다’, ‘사람 같다’는 인상과 어떠한 인격체를 대하고 있는 것 같다는 감흥은 결국 현실을 데이터로 재조립한 결과이다. 원본이라 할 수 있을 현실 인간에게 존재하는 고유한 특성과 흔적을 샅샅이 흩어 다시 합쳐놓은 서비스는 혁신적인 결과로 포장된다.

결국 AI는 결코 인격이나 의식이 아닌 도구나 장치에 불과하다. 중요한 문제는 현실의 사람들인 우리가 이 도구와 어떤 관계를 맺고 있는지, 그것을 둘러싸고 무슨 일이 벌어지는지일 것이다.

AI를 가동하기 위해 쓰이는 화석 연료와 이를 식히기 위한 냉각수, 부품을 만들기 위한 희토류 채굴 같은 문제를 생각해 보는 동시에, ‘인공’과 ‘지능’에 덧입혀진 신화를 털어버려야 할 때다.​ (끝)


[관련 문헌]

Gebru, Timnit, 'Race and Gender', in Markus D. Dubber, Frank Pasquale, and Sunit Das (eds), The Oxford Handbook of Ethics of AI (2020; online edn, Oxford Academic, 9 July 2020), https://doi.org/10.1093/oxfordhb/9780190067397.013.16, accessed 28 June 2023.

​Emily M. Bender, Timnit Gebru, Angelina McMillan-Major, and Shmargaret Shmitchell. 2021. On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? . In Conference on Fairness, Accountability, and Transparency (FAccT ’21), March 3–10, 2021, Virtual Event, Canada. ACM, New York, NY, USA, 14 pages. https://doi.org/10.1145/3442188.3445922


 


작성자 : 나드 / 작성일 : 2024.07.15 / 수정일 : 2024.07.31 / 조회수 : 820

코멘트를 달아주세요!



 목록으로