[인공지능 연재] 그래서 무엇을 고민할까?
인공지능이 불러올 혁신에 대한 기대감의 이면에서 학자들의 목소리를 전합니다. 함께 읽고 싶은 기사를 번역하고, 널리 알려진 오류를 바로잡습니다. 연재를 통하여 인간과 기술의 관계 맺기를 돌아보고자 합니다.
코로나바이러스감염증-19의 확산 이후 온라인 강의와 회의는 익숙한 풍경이 되었다. 올해 한 온라인 회의에 참석하던 중, 회의를 진행하던 분께서 이런 말씀을 하셨다. “여러분 모두 AI는 아니죠?” 모두가 당연하다는 듯 함께 웃었다. 원격 회의 환경에서, 화면 너머의 참석자 또는 참석자로 보이는 영상이 사람인지 AI인지 가려낼 방법이 없기는 없다는 사실을 알기에 나온 농담이었다.
ChatGPT나 Bard와 같은 생성형 AI를 이용할 때면 끈기 있는 선생님, 동료, 혹은 친구가 생긴 것만 같은 기분이 든다. 오래된 친구와 대화할 때도 실제로 그를 만나기보다는 메신저를 사용하는 경우가 많은 처지에서, 대화형 텍스트를 주고받는 경험은 그럴듯한 대화를 하고 있다는 인상을 준다. 동시에 생성형 AI의 널리 알려진 문제점 중 하나는 친근하고 자신만만한 태도로 엉터리 답변을 내놓고는 한다는 것이다.
물론 박혁거세(朴赫居世)는 신라의 건국 시조가 된 역사적 인물이며 출생은 기원전 69년으로 조선과는 무관하다. 초기에 ChatGPT를 사용해 보았을 때에 비하면 개선되었지만, 간혹 튀어나오는 엉뚱한 답변이 사라지지는 않은 모습이다. 이러한 가짜 답변을 가리켜 ‘할루시네이션(hallucination)’, 환영 현상이라 부른다. 이러한 환영의 원인으로는 대형 언어 모델은 복잡성이 높고 최적화가 어려우며, 훈련된 데이터가 부족해서 등이 꼽힌다. 어쩌면 이 예시가 그렇듯, 터무니 없는 질문에 터무니 없는 대답이 돌아오는 건 당연할지도 모른다. 언어 모델이 데이터를 조합하다 보니 자연스레 발생하는 오류이기 때문이다. 다시 말해 이 대답은 애초에 조립식이었던 것이다. 이처럼 환영 현상을 지적할 때 드러나는 또 다른 환영이 있다. 인공지능이 아닌 인간끼리 공유하는 환영, ChatGPT의 대답이 ‘대답’이라는 환상이다.
올해 6월, SF소설가 테드 창은 한 언론사와의 인터뷰에서 ‘AI(인공지능)’는 적합한 단어가 아니라며 인공지능 대신 ‘응용 통계’라는 표현을 사용했다. 이는 인공지능을 둘러싼 논의를 비판하는 이들이 꾸준히 언급하는 부분이기도 하다. 인공지능이 학습하고, 배우고, 익히고, 훈련하고, 무언가를 알거나 알지 못한다는 표현은 모두 자연스레 인공지능을 인격화한다.
“지금 우리에게 있는 기계는 의식이 없습니다.” 테드 창은 1950년대 처음 AI가 개발될 때 다른 단어가 쓰였다면 혼란이 덜했을 거라는 비판에 동의하면서, 인공지능이 소수에게 권력이 집중되게 만들어 불평등을 심화할 것을 우려한다. 1950년대 인공지능과 컴퓨터의 역사를 살펴보면 어디선가 한 번쯤은 스쳐 갔을 학자의 이름이 등장한다.
1950년 수학자, 논리학자, 암호학자 및 전산학자인 앨런 튜링은 현재 ‘튜링 시험’으로 알려진 개념을 제안한다. 튜링 시험은 여러 사람 조사관과 컴퓨터 간의 대화를 통해 이뤄진다. 사람 조사관은 대화 상대가 컴퓨터인지 사람인지 알지 못하는 상태에서 컴퓨터와 대화한다. 여러 조사관 중 대화 상대가 사람이라 판단하는 조사관이 30% 이상이면, 컴퓨터는 튜링 시험에서 합격한다.
AI를 두고 자주 소개되는 개념이기도 하다. 이 튜링 시험을 고안하기 전, 앨런 튜링은 영국군에서 암호 해독가로 일하고 있었다. 당시 영국은 나치 독일이 개발한 암호 장치인 ‘에니그마’의 시스템을 돌파하기 위해 극비 작전 기지를 만들었다. 버킹엄셔주에 위치한 사유지, ‘블레츨리 파크’라고 알려진 이곳에서 모인 암호 해독가들은 결국 독일의 암호를 해독해 내는 데에 성공해 연합군의 승리를 끌어냈다고 알려져 있다.
수십 년이 흐른 2023년 11월, 다시 블레츨리에서 제1회 ‘AI 안전 정상회의’가 열렸다. 28개국 정상과 EU 집행위원장, UN 사무총장을 비롯해 구글, IBM, 메타, 마이크로소프트, 엔비디아, 오픈AI, 텐센트 등 AI 대기업 최고경영자와 학자들이 참석한 이 행사에서는 “AI가 파국적 피해를 초래할 수도 있다”며 위험에 대처하기 위한 국가 간 협력이 필요하다는 내용의 ‘블레츨리 선언’이 채택되었다. 확실한 이야깃거리가 될 만한 위치 선정이다.
인공지능이라는 신기술을 향한 우려와 찬탄에는 다시 앞서 말한 환상이 배어 있다. 인공지능은 ‘지능’이 아니다. 계산기, 스프레드시트, 검색 엔진을 사용할 때는 이를 지능이라 부르지 않는다. 친절한 인공지능의 ‘답변’으로 보이는 건 실은 방대한 텍스트 데이터를 분석하고, 문구를 문법에 맞추어 배열한 ‘결과’다. 대답보다는 ‘출력물’ 또는 ‘값’이란 표현에 가까운 것이다. 영화, 드라마, 게임에 등장하는 무시무시한 안드로이드는 여전히 상상일 뿐이다. 인공지능을 성공적으로 활용해서 펼쳐지는 유토피아 세상도 여전히 상상일 뿐이다. 이 ‘응용 통계’ 기술을 개발하는 회사들이 상상을 부추기면서 정체불명의 신기술을 향한 기대와 불안감을 자극할수록, 대단한 학자나 기업의 최고경영자에게만 발언권을 줄수록, 다수의 사람은 기술 사용자의 권리조차 잊어버리기 쉽다.
‘블레츨리 선언’에 앞서 2021년 ‘누스코프 선언’이 있었다. 이는 미디어철학과 뉴미디어 연구자인 마테오 파스퀴넬리와 블라단 욜러가 발표한 것으로, 누스코프(Nooscope)라는 단어는 “그리스어에서 보다, 관찰하다라는 뜻의 skopein과 지식을 뜻하는 noos로부터” 만들어졌다. 이 선언의 주목적은 “인공지능에 대한 신화화에 도전하는 것”이다. 테드 창이 인공지능을 ‘응용 통계’라 불렀다면, 이들은 ‘지식 도구’라고 부른다. 두 표현은 우리에게 같은 질문을 던진다. 왜 이것을 지능이라고 부르는가? 누가 그렇게 하는가?
신의 영역에 도전한다든지, 세상을 바꿀 혁신이라든지, 인류를 종말로 이끌 무시무시한 기술이라든지, 어떤 표현이든 지나치게 자극적이다. 인류가 수십 년에 걸쳐 만들어낸 데이터 혹은 수천 년에 걸쳐 쌓아온 정보 없이는 ‘인공지능’도 없다. 기술을 표현하는 말이 무엇이 되었건 모두가 정보를 만들어내고 이용하는 지금, 정보 주권과 기술 윤리에 대한 논의가 필요해 보인다. 이를 살펴볼 수 있는 뉴스레터와 단체를 소개한다.
AI 윤리 레터 (https://ai-ethics.stibee.com/)
AI 윤리 레터는 인공지능 윤리와 관련된 국내외 소식과 생각거리를 전하는 뉴스레터다. 2023년 5월에 시작된 이래 벌써 100회가 넘는 메일을 통해 이슈를 풀이하고, 정책과 뉴스를 전하며 함께 생각해보기를 권하고 있다.
정보인권연구소 (https://idr.jinbo.net/)
사단법인 정보인권연구소는 인공지능을 포함하여 보다 넓은 관점에서의 민주적인 디지털 환경을 형성하기 위해 대안적 정책을 연구하고, 시민 대상 정보인권 교육, 개인정보 보호법의 역사 교육을 실시하고 있다.
다른 기술과 마찬가지로 AI가 우리에게 미치는 영향은 금세 판가름나지 않는다. 검색 엔진이 처음 등장했을 때에도, 도서관과 책은 사라질 것이며 수많은 사람이 실업자가 될 거라는 상상은 존재했다. 중요한 건 SF영화나 소설에 나왔던 불온한 미래가 아니라 우리가 지금 함께 엮어가고 있는 세계의 지금이다. AI라는 '상품'을 둘러싼 논의를 지켜보는 시민들의 역할이 중요한 이유다.
[관련 기사] (제목 클릭)
Sci-fi writer Ted Chiang: ‘The machines we have now are not conscious’, Financial Times, Madhumita Murgia
2차 대전 때 독일군 암호 풀던 곳에서···28개국, 첫 ‘AI 공동 대응’ 선언, 경향신문, 정원식
AI가 인류 위협 못하도록...28개국 ‘블레츨리 선언’ 서명, 동아사이언스, 문세영
[관련 문헌]Turing, A. M. (1950). Computing Machinery and Intelligence. Mind, 59(236), 433–460. http://www.jstor.org/stable/2251299
Vladan Joler, Matteo Pasquinelli (2020). The Nooscope Manifested: AI as Instrument of Knowledge Extractivism
코멘트를 달아주세요!