중간고사 대체과제

기술과 책임의 사이에서

— 영화 <오펜하이머>(크리스토퍼 놀란, 2023)를 보고

크리스토퍼 놀란 감독의 <오펜하이머>는 단순한 전기 영화가 아니다. 천재 물리학자가 세상을 바꾼 무기를 만들어낸 이야기이기도 하지만, 그보다 더 깊은 질문은 이것이다. 기술을 만드는 사람은 그 기술이 낳는 결과에 어디까지 책임을 져야 하는가? 컴퓨터공학을 전공하며 인공지능을 배우고 있는 나에게 이 물음은 과거의 이야기로 느껴지지 않는다.

1. 핵폭탄과 인공지능의 낯섦

AI에는 세 가지 낯선 특징이 있다. 스스로 무엇을 하는지 자각하지 못한 채 결과를 산출하는 ‘자각 없는 수행’, 왜 틀렸는지 이해하기 어려운 ‘이해할 수 없는 실패’, 그리고 물리적 현실과 근본적으로 분리된 ‘계산과 실재의 간극’이다. 이 세 가지가 흥미로운 이유는 핵폭탄 역시 그런 기술이기 때문이다. 그것이 실제로 무엇을 할 수 있는지, 어떤 결과를 낳을지를 오펜하이머도 완전히 파악하지 못했다.

공군에서 작전정보체계를 관리하던 시절 비슷한 간극을 경험했다. 시스템이 처리한 데이터가 화면에 표시되는 순간, 그것은 누군가의 판단을 돕거나 제약하는 힘이 된다. 기술은 중립적인 도구처럼 보이지만, 실제로는 설계 방식 안에 특정한 판단의 틀이 내재되어 있다. 인공 신경망이 설계 원리 자체가 불투명한 반투명 상자라면, 그런 기술이 군사적 결정을 보조하는 상황은 오펜하이머의 딜레마와 크게 다르지 않다.

AI가 인간과 다른 방식으로 지적이다. 우리가 AI를 사람처럼 생각하는 도구로 오해하는 순간 그 불투명함이 보이지 않게 된다. 겉으로는 유능해 보이지만 실제로는 우리가 이해할 수 없는 방식으로 실패하기도 한다. 이 불투명함을 인식하지 못하면 기술이 이미 특정한 판단의 틀을 내재하고 있다는 사실도 놓치게 될 것이다.

2. 기술의 사회적 본질

우리말 윤리(倫理)와 Ethics에는 차이가 있다. 우리말 윤리가 개인이 도리에 어긋나지 않는 것에 가깝다면, 서양의 Ethics는 고대 그리스에서 공동체의 에토스, 즉 집단이 공유하는 규범에서 출발한다.

AI 윤리가 ‘나쁜 짓 하지 마라’가 아니라 사회 전체의 논의 과정이 되어야 하는 이유가 여기에 있다. 기술의 설계는 본질적으로 집단적 선택이다. 어떤 데이터를 쓸지, 어떤 기준으로 판단할지는 개인의 도덕성이 아니라, 그 기술을 만들고 허용하는 공동체의 에토스가 결정한다.

도시공사에서 인턴을 하면서 이것을 실감했다. 공공 인프라를 관리하는 조직에서 기술적 판단은 효율의 문제가 아니다. 어떤 데이터를 수집하고 어떤 기준으로 우선순위를 정하느냐에 따라 시민들의 삶에 직접적인 영향이 생긴다. 로버트 모제스의 존스비치 공원 도로처럼, 기술적 설계는 그 자체로 이미 누구를 우선으로 여기는지이다. 오펜하이머의 실패도 결국 그 집단적 에토스의 실패였다.

3. 개인의 의지를 넘어선 기술

영화 속 오펜하이머는 핵폭탄이 떨어지고 난 뒤에야 과학자는 죄를 짓고 말았다고 말한다. 그 고백이 너무 늦었다는 것은 누구나 알고 있다. 하지만 과연 그가 그 전에 멈출 수 있었을까? 맨해튼 프로젝트는 이미 국가와 자본, 전쟁이라는 거대한 기술 시스템의 일부가 되어 있었다. 한스 요나스의 말처럼 기술은 일단 사용되기 시작하면 그 능력과 권력에 대한 활용 요구가 지속적으로 커진다. 오펜하이머 한 사람의 의지로는 멈출 수 없는 시스템이 되었던 것이다.

오늘날 OpenAI의 샘 알트먼 해임과 복직 사건도 같은 맥락에서 읽힌다. 안전한 AI를 원하는 쪽과 빠른 개발을 원하는 쪽이 충돌한 그 사건은 실리콘 밸리 안에서도 서로 다른 에토스를 가진 집단들이 기술의 방향을 두고 경쟁하고 있음을 보여준다. 기술은 한 방향으로만 흐르지 않으며, 그 흐름을 결정하는 것은 결국 사람들 사이의 가치 충돌이다.

4. Ethics By Design

그렇다면 우리는 어떻게 해야 하는가? MIT의 ELIZA 프로젝트에서 사람들은 실제 사람보다 AI와 내밀한 이야기를 더 편하게 나눈다는 사실이 밝혀졌다. (세스 스티븐스 다비도위츠의 <모두 거짓말을 한다>의 맥락이라고 볼 수 있다.) 지금도 LLM에게 위안을 얻는 사람들이 있다. 혹자는 이것이 위험할 수 있다고 경고하면서, 인간 스스로 현명하게 공감하는 능력을 키워야 한다고 한다.

나는 이 세태가 Ethics by Design의 방향이라고 생각한다. 처음부터 윤리를 기술 설계의 일부로 내재화하는 것, 그리고 기술을 사용하는 인간 역시 스스로를 비판적으로 성찰하는 것이다. 오펜하이머는 결과를 목격한 후에야 윤리를 떠올렸지만, 우리는 그보다 앞에서 질문을 던져야 한다. AI 윤리는 기술 개발을 가로막는 것이 아니라, 기술이 올바른 방향으로 나아갈 수 있도록 해야 한다.

5. 마무리

영화를 보고 나서 한 가지 생각을 했다. 나는 기술을 만드는 사람이 되고 싶지만, 결과를 보고 나서야 후회하는 사람이 되고 싶지는 않다. 군에서 시스템을 관리하면서, 인턴으로 공공 기술의 현장을 경험하면서, 지금 인공지능을 배우면서 내가 조금씩 쌓아온 것들은 이 질문으로 수렴하는 것 같다. 이 기술은 누구를 위한 것인가? 그 질문을 잊지 않는 것이 낯선 지능과 함께 살아가야 하는 이 시대에 내가 할 수 있는 가장 인간다운 일이라고 믿는다.