오늘날 우리는 생성형 AI가 만들어내는 텍스트와 이미지를 보며 언젠가 AI로 인해 미래에 어떤 위험이 닥쳐오겠지 라는 두려움을 느끼고 있습니다. 이 책에서도 역시 AI로 인해 다가오는 미래에서 무엇을 조심해야 하는지 말하고 있습니다.
하지만 책을 자세히 읽어보면 미래에 조심해야할 AI는 생성형 AI가 아닌 판별형 AI였습니다. 4장에서 틱톡과 같은 네트워크 플랫폼에서 검열을 하는 AI는 판별형 AI이고, 5장에서 국가 안보를 위협하는 군사용 AI도 판별형 AI입니다. 6장에서 언급하는 전문 직종의 고지능 AI역시 판별형 AI이며, 7장에서 말하는 AI에는 감정이 없다라는 것 또한 판별형 AI입니다.
- 생성형 AI : 글, 대화, 문장, 이미지 등 새로운 컨텐츠를 생성하는 AI (예: 정부 사업 제안서 작성, 사람이 특정한 행동을 하는 이미지 그리기 등 )
- 판별형 AI : 데이터를 기반으로 패턴을 찾아 분석하고 예측하는 AI (예: 어제 매출 기반 오늘 매출 예측, 사직 속에서 사람이 어디 있는지 찾기 등)
실제로 판별형 AI는 데이터만 보고 분석을 하기에 감정이 없지만 생성형 AI는 사람들이 구글, 블로그, 커뮤니티 등에 올린 그 사람들만의 감정이 담긴 글을 학습합니다. 그래서 많은 사람들이 생성형 AI를 통해 위로를 받을 정도로 (위로를 해준 글을 학습하였기 때문에 가능) 감정이 있다고 볼 수 있습니다. 심지어는 보통 사람들보다 공감과 위로를 더 잘해줍니다.
그럼 우리가 생성형 AI를 보고 느끼고 있는 미래에 대한 불안감이 진짜 존재하는 것일까요? 허구의 대상을 두려워 하고 있는 것 아닐까요? 어쩌면 우리는 가장 눈에 띄는 생성형 AI를 두려워하는 사이, 가장 강력한 판별형 AI는 제대로 인식하지 못하고 있는 것은 아닐지 이번 기회에 한번 이야기 해보면 좋을 것 같습니다.
[발제문 1] 트롤리 딜레마 : AI는 어떤 선택을 할 것인가?
트롤리 딜레마라는 말을 들어보셨나요? 이를 자율주행자동차에 대입해보겠습니다. 자율 주행 중 앞에 사람이 있습니다. 이 사람을 피하려고 보니 옆은 낭떠러지 입니다. 그럼 자율주행자동차는 어떤 선택을 해야 할까요? 라는 내용이 트롤리 딜레마입니다. 생성형 AI들의 관점에서 무엇이 옳은지 많은 사람들이 철학적으로 토론을 하고 있죠. 운전자를 보호하기 위해 보행자를 친다와 보행자를 보호하기 위해 운전자를 위험에 빠뜨린다에 대해서 말입니다.
하지만 이번에 판별형 AI의 입장에서 이 문제를 분석해보겠습니다. 여러분은 자율주행자동차 회사의 직원입니다. 당신의 업무는 자율주행이 보행자와 운전자를 보호하기 위해 AI를 학습시키는 것입니다. 당신은 보행자나 운전자를 보호하기 이전에 당신의 얼굴을 학습시킬 수 있습니다. 당신이 만든 자동차는 어디에서든, 어떤 상황에서든 당신의 얼굴을 기억하고 최우선 적으로 보호할 수 있습니다. 당신이 운전자이면 보행자를 칠 것이며, 당신이 보행자이면 운전자를 위험에 빠르릴 것입니다.
이처럼 판별형 AI는 특정 사람을 우선적으로 보호할 수 있습니다. 회사 관계자, 고위 공무원, 심지어 뒷돈을 받은 그 누군가 까지 말이죠. 그렇게 되면 교통사고 역시 부자들은 안전하고 가난한 사람은 위험해질 것입니다. 이러한 차별적 판단은 정당화 될 수 있을까요?
[발제문 2] 양의 네트워크 : 어떤 AI를 선택해야 하는가?
양의 네트워크는 서비스의 이용자가 많으면 데이터가 축적되어 더 좋은 성능을 낼 수 있고 그로 인해 더 많은 이용자를 모이게 하는 개념입니다. ChatGPT나 Gemini와 같은 생성형 AI는 구글에 있는 모든 글자들을 학습했습니다. 더 이상 학습할 글자가 없기에 사용자들이 GPT나 Gemini에 입력하는 글자들은 생성형 AI가 더 성장하기 위한 유일한 원동력이 될 것입니다. 그럼 GPT나 Gemini중 서비스 이용자가 많은 것을 선택하는 것이 장기적으로 좋은 선택이라 할 수 있겠네요.
이제 여러분은 주식으로 돈을 벌고 싶어하는 사람입니다. 그리고 수익률이 좋은 주식 AI 모델이 나타났습니다. 기존 주식 패턴을 아주 잘 분석한 잘 만들어진 판별형 AI입니다. 여러분을 이 주식 AI를 통해 꽤 짭잘한 돈을 벌었습니다. 이는 큰 소문을 타고 많은 유저들이 모이게 되었지요. 하지만 주식은 정보의 차이로 돈을 버는 수단입니다. 많은 사람이 모이면 모두 같은 정보를 받게 되고 당신의 수익은 점점 줄어들겠지요. 하지만 더 큰 문제는 여기서 끝이 아니라는 점입니다. 만약 어느 특정 순간에 주식 AI가 여러분에게는 특정 주식을 사라고 하고, 다른 특정 집단에서는 특정 주식을 팔라고 합니다. 유감스럽게도 당신은 빈털털이가 되어버렸네요.
이처럼 판별형 AI는 좋고 정확한 정보를 주지만, 이 정보를 맹신하게 된 순간 당신은 이 AI를 개발한 집단에 의해 가장 큰 위험에 빠질 수 있게 됩니다. 양의 네트워크가 강해질수록 데이터가 쌓이게 되고 더 큰 신뢰감을 얻기게 되는데 이는 우리가 더 나은 AI를 사용할 수 있게 되는 것일까요? 아니면 이미 우린 AI에 의해 움직이고 있는 것일까요?
[발제문 3] 튜링 테스트 : AI와 인간을 어떻게 구분할 것인가?
튜링 테스트를 AI에 대입해보겠습니다. 어떤 질문을 사람과 특정 프로그램에 해보겠습니다. 제 3자가 두 답변을 듣고 누가 사람인지 아닌지 구분을 할 수 있다면 프로그램은 그냥 프로그램일 뿐이고, 만약 두 대답의 차이를 못 느껴 누가 사람인지 구분을 못한다면 그 프로그램을 우린 AI라고 부를 수 있습니다. 생성형 AI는 구글에 있는 사람들이 작성한 글자를 학습하기 때문에 그 내용과 말투에 있어서 AI의 답과 사람의 답 사이에 차이를 느끼기 어렵습니다. 즉 인간과의 구분이 어려운 AI라고 할 수 있겠죠.
튜링 테스트를 직접 한번 해보겠습니다. 여러분에게 질문을 드려보겠습니다. 전세계에서 50번째로 GDP가 높은 나라의 3번째로 큰 도시는 무엇인가요? 여러분은 바로 그걸 어떻게 알아 난 몰라라고 생각하셨을 겁니다. 하지만 생성형 AI는 이 어려운 질문도 대답을 합니다. 그럼 만약 AI가 더 지능이 높아질 수록 인간이 대답하기 어려운 질문, 인간이 답을 모르는 질문에 대답을 할 수 있게 됩니다. 그럼 이를 확장해서 생각해보면 튜링 테스트의 질문을 아주 어렵게 내봅시다. 우리는 모른다고 대답한 인간과 그 어려운 대답을 한 AI를 구분할 수 있게 됩니다. 그럼 이제 AI는 인간과 구분이 가능하기에 튜링 테스트에 의하면 더 이상 AI가 아니게 되는 걸까요?
이처럼 고지능 AI는 오히려 인간과 구분이 가능합니다. 이는 한 분야만 전문적으로 학습한 판별형 AI에서 더 크게 나타나게 됩니다. 그리고 한 분야에 너무 전문적인 판별형 AI는 새로운 핵폭탄을 만들고, 더 치명적인 바이러스를 만들 수 있게 됩니다. 인간과 명확히 구분되는 고지능 AI의 위험성 앞에서 우리가 여전히 AI와 인간을 구분하기 위해 인권의 철학적 의미를 세우는 것이 중요한 문제일까요?
[발제문 4] AI 이후의 세계 : AI는 미래에 어떻게 될 것인가?
지금까지 우리는 AI가 만들어낼 수 있는 여러 문제들에 대해 이야기해보았습니다. 그렇다면 AI 이후의 세계는 과연 어떤 모습일까요?
생성형 AI와 판별형 AI가 더 발전하게 된다면, 우리의 일상과 선택, 그리고 인간의 역할은 어떻게 달라지게 될까요?
우리는 AI와 함께 더 나은 방향으로 나아가게 될까요, 아니면 예상하지 못한 방식으로 변화하게 될까요?
마지막으로 AI 이후의 세계를 자유롭게 상상해보고 이야기를 나눠보면 좋을 것 같습니다.
