시리즈 | Book Review - 3. AI 2041
ChatGPT가 나온지 벌써 3년 가까이 지났다. 요즘은 하루가 멀다 하고 AI 모델이 새롭게 출시되고 있는 상황에, 옛날의 「터미네이터」에서의 ‘스카이넷’과 「MI7」의 ‘엔티티’와 비슷한 AI 세상 정복론들도 다시 한번 각광받고 있다. 아무래도 AI가 엄청나게 발전하고 있는 시대에, 이제는 옛날보다 충분히 신빙성이 생기지 않았는가? 일반인공지능(어떠한 작업에 특화된 것이 아닌 인간처럼 모든 작업을 전반적으로 수행할 수 있는 인공지능)과 군사인공지능(군사 목적으로 활용되는 인공지능)이 진짜로 얼마 남지 않은 시대에, 이 트렌드와 함께 사회적인 이슈로 나타난 책이 있다. 바로 리카이푸 교수와 천치우판의 『AI 2041』이다. 이 책에서는 총 10개의 신기술들을 소개한 후 그것과 관련된 이야기를 서술하며 AI의 가장 근본적인 문제점들과 일어날 수 있는 일들을 지적하는데, 출판 당시 현실적인 묘사와 과학적 신빙성을 갖춘 글의 완성도에 많은 호응을 얻었었다. 그렇다면, 이 책이 나온지 2년 가까이 된 지금, 이 책에서의 예언들은 얼마나 실현되었을까? AI는 책에서처럼 세상을 지배하게 될까? 우리는 무얼 하고 살아야 할까? 이 글에서는 『AI 2041』에 소개된 AI 신기술들 중 4개의 현재 실현 정도에 대하여 알아보고, 앞으로의 AI와 우리의 미래를 전망해본다.

자동으로 타깃을 제거한다 – 군사용 인공지능
첫번째로 소개할 기술은 군사용 인공지능이다. 『AI 2041』의 <양자 대학살>을 읽게 되면 AI 군집 드론들이 새때처럼 날아다니며 대기업 회장들을 암살하는 장면을 볼 수 있다. 안타깝게도 이 기술은 이미 이 세상에 존재하는 기술이다. 우선 무인기 기술은 매우 오래전부터 존재해왔던 기술이고, 최근에는 이런 무인기에 AI가 접목되어 반자동 적 사살이 가능해졌다. 실제로 러시아-우크라이나 전쟁 중에도 관제실과의 연락이 끊기자 자동으로 적군의 탱크를 박살낸 사례도 있다. 이와 관련하여 잘못된 사격에 대한 책임을 누가 질 것인가에 대한 논란 또한 있었는데, 이는 자율주행 사고 딜레마와 함께 AI에서 해결되지 않은 문제로 꼽힌다.

앞서 살펴본 프로그램은 직접 무기를 조작하는 쪽이었다면, 군사 시스템 전반을 지휘하는 소프트웨어 또한 존재한다. 미국의 스타트업 Palantir에서 개발한 Gotham이라는 소프트웨어는 미 국방부가 수집한 정보를 이용하여 AI가 정보를 처리하는 시스템인데, 현재 시행 중에 있다. 더 자세한 정보는 아래 영상(00:50~04:45)을 확인해 보길 바란다.
이 외에도 조금 추가하자면, AI와는 관련이 없지만, 군집 비행을 통하여 새떼를 모방하는 기술 또한 매우 활발하게 연구 중이다. Boids Algorithm이라는 알고리즘을 이용한다면 자연에서 새떼의 움직임을 모사하는 알고리즘을 쉽게 만들어낼 수 있다.
자녀들의 친구가 되어주다 – 돌봄이 인공지능
다음 기술은 인공지능 돌봄이다. 3장 <쌍둥이 참새>에서는 각 아이에게 붙는 인공지능 ‘버디’, 즉 AI 로봇이 등장한다. 이런 인공지능 로봇들은 아이의 성격에 맞게 완벽하게 커스터마이징이 가능하고, 더불어 아이에게 동기부여를 해주는 장면도 연출된다. 하지만 이게 아이에게 무조건 좋다고는 할 수 없다. 실제로 소설 속에서도 아버지가 아들의 버디의 AI를 교묘하게 조작하여 아이가 힘들어하고 병들어가는 장면을 볼 수 있다.
정확하게 이 기술은 아니지만, 이와 유사한 분야로 AI를 활용한 심리 상담 및 치료는 이미 여러 곳에서 활발하게 사용되고 있는데, 여러 연구에서 AI 상담사의 유능함은 이미 증명되었다. 또한, 여기에 더해 AI와 사람간의 감정교류가 가능하게 하려는 시도가 계속되고 있다. 최근 AI 중 Sesame AI라는 AI는 사람의 감정과 그에 따른 어조의 변화를 거의 완벽하게 시뮬레이션 하여 화제가 되고 있다. 우리가 알던 지루한 단음 TTS는 이미 과거의 것이 된 것이다.
핸들이 사라지다 – 자율주행
자율주행은 진짜 오래전부터 회자되었던 분야이고, 매번 뉴스에서 나오기에 익숙한 분야라고 생각한다. 하지만 이 책에서는 자율주행의 한계에 대하여 지적하며, 수동 주행 차가 완전히 사라졌을 때의 자연재해나 단순한 변수에 의한 혼란 때의 AI의 실패에 대하여 이야기하고 있다.
“최첨단 인공지능도 실수를 한단다. 폭발 사고로 도로가 파괴되어 따라갈 수 없게 되거나 갑작스러운 자연재해로 대혼란이 벌어질 수 있거든. 바로 이럴 때 카말(주인공)과 같은 ‘고스트 드라이버’가 나서줘야 해. ”
[『AI 2041』중 ]
우선, 현재의 자율주행 자동차는 완전한 자율주행이 아니다. 멀쩡히 존재하는 도로에서도 일어나는 여러가지 사고들 때문에 완전한 자율주행은 현재까지는 불가능했다. 대표적인 예시로는 테슬라의 플로리다 트럭 충돌 사고가 있다. 90도로 들어오고 있던 트럭을 테슬라가 시속 110km로 그대로 들이받은 사건이다. 어떤 자율주행 소프트웨어나 하드웨어를 정량적으로 분석할 때는 보통 보통은 SAE라는 단체에서 제공하는 ADAS Level이라는 척도를 사용하여 자율주행의 완성 정도를 분석한다. 그 척도에 따르면, 책에서 나오는 자율주행은 Level 5에 속하지만, 현재 대중적으로 가장 잘 알려진 테슬라의 자율주행의 경우에도 겨우 Level 2에 속한다. 아직 갈 길이 많이 남아있는 것이다.
또다른 문제도 존재한다. 현재의 기술로는 완전 자율 오프로드 주행 차량을 만들 기술이 없다는 것이다. 즉 소설에서 나왔듯이 재해 지역에서 완전자율주행이 구조작업을 벌이는 것은 상상도 하지 못할 일이다. 책에서는 그런 부분들을 지적하여 위기 상황에서 사람이 컴퓨터 뒤에서 운전하는 ‘고스트 드라이버’의 필요성을 강조한다.

하지만 그런 시대도 거의 다 지나갔다. 2025년 4월달에 Overland라는 스타트업에서 AI를 이용한 오프로드 All-Terrain 군용 자동차를 공개하였다. 아직 프로토타입이기는 하지만, 오프로드 분야에서의 자율주행이 가능하다는 좋은 증거를 제공해준다. 또한, 구글이나 테슬라 등의 여러 일반적인 자율주행 소프트웨어들도 계속해서 개조되면서 점점 좋아지고 있다.
우리의 안전을 책임질까 – 인공지능 보험
마지막으로 다뤄볼 기술은 인공지능 보험 기술이다. 책 1장 <황금 코끼리>를 보면, 주인공의 가족은 신기술인 딥러닝 보험에 가입되어 있다. 이 보험은 실시간으로 사용자의 여러 정보를 측정하여, 사용자가 보험료를 줄일 수 있는 여러가지 아이디어들을 공유해준다. 하지만 <황금 코끼리>에서 저자가 나타내고자 하였던 포인트는 책 속AI의 데이터 편향에 의한 차별이다. 실제로 소설 내 인공지능은 주인공의 남친이 인도의 ‘취약계층’이라는 이유만으로 ‘위험하다’고 단정 지으며, 그와 붙어 있는 것만으로도 보험료가 증가하는 장면이 연출된다.
여기서 무서운 점은 이것이 실제로 있는 기술이고, 실제로 있는 현상이라는 것이다. 미국에서 실험되었던 COMPAS라는 범죄자의 재범률을 예측해주는 AI 판사의 경우, 비슷한 범죄에 대하여 흑인들의 재범률을 더 높게 예상하여 더 중하게 처벌하는 현상이 발견되어 사회적 파란이 일었었던 적이 있다. 전문가들이 분석하기로는 데이터 속에 이미 차별에 인한 효과가 녹아 있어 이런 일이 일어났다고 한다. 흑인 차별이 폐지된 이후에도 흑인들은 백인들에 비하여 사회적으로 빈곤할 수 밖에 없었고, 이로 인하여 흑인의 평균 범죄율이 높았으며, 이 데이터로 AI를 학습시켰기 때문에 이런 ‘편향’이 발생한 것이라는 것이다. 심지어 이것이 악순환이기에 이런 문제는 점점 더 가중된다는 문제도 있다.
우리는 이제 무얼 해야 할까 – 인공지능의 미래
결국 모든 정보는 우리의 처음 질문으로 돌아오게 된다. 우리는 이제 무엇을 해야 할까? 인공지능은 언제 우리의 자리를 대체할까? 개인적인 의견을 서술하자면, 필자는 위에서 나온 기술 중 2개, 군사용 인공지능과 돌봄이 인공지능만이 완전 인공지능화가 가능할 것이라고 생각한다. 여기서 처음 둘과 나머지의 차이를 살펴본다면, 예측 불가능한 것들에 대처가 나름 간단하다는 것이다. 이와 대비되게 너무나 갑작스러운 대처가 어려운 분야에 대해서는 AI가 대체하기까지 매우 오래 걸리거나 심지어 불가능할 것이라고 생각한다. 이런 점 때문에 보험사에서는 인간이 끝까지 일할 것이고 자율주행차에서 핸들은 끝까지 없어지지 않을 것이라고 생각한다. 또다른 케이스는 인간적인 ‘공정함’을 대입해야 하는 상황일 때이다. AI 판사와 같이 데이터 내의 차별이 꼬리의 꼬리를 무는 경우, 그 중심에서 이를 비판적으로 판단해 끊어줄 사람이 필요하다. 이런 결정을 내릴 수 있는 위치에는 인간들이 필요할 것이다.
결론적으로, 농업혁명 이후에도 사람들이 돌아다니면서 수렵 채집을 했고, 산업혁명 이후에도 사람이 노동력으로 쓰인 것처럼, 설사 AI가 많은 분야를 점거하더라도 결국에는 인간이 해야 하는 분야가 생길 것이다. 다행이도 아직 「터미네이터」에서처럼 저항군을 결성할 필요는 없어 보인다.
참고문헌
『AI 2041』 – 리카이푸, 천치우판 저
Calbring P, Hadjistravropoulos H, Keliboer A, Andersson G. A new era in Internet interventions : The advent of Chat-GPT and AI-assisted therapist guidance. Internet Interv. 2023 Apr 11;32:100621. Doi: 10.1016/j.invent.2023.100621. PMID: 37273936; PMCID: PMC10235420.
https://www.geekwire.com /
https://www.sesame.com/
https://www.nature.com/
https://www.palantir.com/
https://www.washingtonpost.com/
https://blog.isusystem.com/
https://missionimpossible.fandom.com/wiki
https://www.bbc.com/
https://www.geekwire.com/
https://www.palantir.com/